fbpx
News

สะดุ้งกันทั้งบาง เมื่อคนดังถูก Deepfake AI ปลอมใบหน้าท่าทาง จับเอาไปพูดอะไรในสิ่งที่ต้องการได้ทุกอย่าง

บางคนน่าจะเคยได้รู้จัก Deepfake กันไปบ้างแล้ว จากความหลอนที่ AI ตัวนี้สามารถเรียนรู้ใบหน้าท่าทางของบุคคลผ่านตัวอย่างภาพและวิดีโอเพียงสั้นๆ ก็จะสามารถแปลงให้คนๆนั้นขยับเคลื่อนไหวได้ทันที ล่าสุดมีหลอนหนักขึ้นกว่าเดิมเมื่อมีการทำเดโมคลิปของคนดังหลายคน พร้อมมีเสียงพูดของคนดังกล่าวที่ตรงกับปากออกมาอีกด้วย ซึ่งเหมือนจนพยายามสังเกตแล้วยังแยกไม่ออกในบางคลิป ทำเอาเหวอกับเทคโนโลยีนี้กันยกใหญ่เลย

โดยคลิปวิดีโอของ Mark Zuckerberg อันนี้ถูกสร้างขึ้นมาเพื่อแสดงโชว์งานศิลปะในเมืองเชฟฟิลด์ โดยตัวงานมีชื่อว่า Spectre (สเปคเตอร์) มีจุดประสงค์ทำให้คนตระหนักถึงการที่เราโดนสอดส่องและถูกปั่นหัวผ่าน Social Media ผ่านเหตุการณ์ฉาวต่างๆ ที่ผ่านมา แต่ในทางกลับกันก็สร้างความตื่นตระหนกให้กับคนทั้งโลกได้พอสมควร จากความที่ผลลัพธ์ที่ออกมาดันเหมือนจริงจนแทบจะแยกไม่ออก

Deepfake | เมื่อคลิปที่ตาเห็น ไม่สามารถยืนยันความจริงได้อีกต่อไป

อย่างที่บอกไปข้างต้นว่า นี่ไม่ใช่ครั้งแรกที่ Deepfake สร้างความตื่นตระหนกให้กับชาวโลก เพราะก่อนหน้านี้ก็มีกรณีของ ปธน.โอบามา ที่เคยโดนมาก่อน เหล่าเซเล็บคนดังในฝั่งตะวันตกหลายคนก็ถูกเอาหน้าไปแปะแทนนางแบบหนังโป๊ ดูแล้วเหมือนกับเล่นหนังเองจริงๆยังไงอย่างงั้น และดูเหมือนว่าเทคโนโลยีนี้จะไม่ได้ถูกจำกัดแค่ในวงแคบๆ แต่มีการปล่อยวางขายในตลาดมืดให้ใช้กันได้แล้วอีกต่างหาก

ความน่าเป็นห่วงคือ เทคโนโลยีนี้จะแพร่หลายและถูกใช้เป็นเครื่องมือในการสร้างความเกลียดชังเมื่อไหร่ เพราะในปัจจุบันส่วนมากที่หลุดออกมาจะยังไม่มีผลลัพธ์ในด้านการทำลายชื่อเสียง หรือใช้ปลุกปั่นเท่าไหร่ แต่ก็ปฎิเสธไม่ได้เลยว่ามีความเสี่ยงที่สูงมาก ซึ่งแน่นอนว่าถ้าประชาชนประเทศใดที่มีภูมิคุ้มกันเรื่องข่าวลือข่าวลวงสูง สามารถคิดพิจารณาตัดสินเห็นถูกผิดได้ชัดเจนก็อาจจะน่าห่วงน้อยหน่อย แต่สำหรับประเทศที่ใช้อารมณ์เป็นที่ตั้ง สาดความเกลียดชังเข้าใส่กันโดยไม่ได้ดูข้อเท็จจริงก็จัดว่าน่าเป็นห่วงไม่ใช่น้อยเลยล่ะครับ

15 Comments

  1. Avatar

    sidewaymaster Post on June 15, 2019 at 1:38 pm

    #1008937

    ทั้งสามคลิปสร้างมาจาก Deepfake หรอครับ ? หรือตัวจริง ? ผมไม่เข้าใจ

    • astider

      astider Post on June 15, 2019 at 1:49 pm

      #1008938

      Deepfake ทั้งหมดครับ

  2. Avatar

    the63 Post on June 15, 2019 at 2:03 pm

    #1008939

    หน่วยงานที่ควบคุมดูแลเรื่องนี้คงจะต้องปวดหัวหนัก เพราะสิ่งที่อันตรายที่สุดคือ การที่มันเป็นเรื่องปลอมที่ดูสมจริงแล้วปนอยู่กับเรื่องจริง มันจะทำให้ข้อมูลต่างๆบนอินเทอร์เน็ตมันจะน่าสงสัยไปซะทุกอย่าง คล้ายๆเรื่องที่มีคนเอาเข็มไปทิ่มไว้ในผลสตรอเบอร์รี่นั่นแหละ

  3. Avatar

    SanFrancisco Post on June 15, 2019 at 2:35 pm

    #1008941

    สองคลิปแรกยังมีการเคลื่อนไหวปากและน้ำเสียงไม่ค่อยเหมือนตัวจริง แต่คลิปที่สามนี่ โอ้พระเจ้า

  4. Avatar

    Chertchai Post on June 15, 2019 at 2:57 pm

    #1008942

    นี้เราจะได้เห็นหนังโป๊ ที่มีดาราคนดังเป็นนักแสดงในไม่ช้านี้สินะ ไม่อยากเชื่อ

    • Avatar

      zkeeper43 Post on June 15, 2019 at 3:24 pm

      #1008944

      สำหรับเรื่องนี้ ตอนนี้ก็เกิดขึ้นแล้วด้วยครับ

      จริง ๆ ก่อนหน้านี้มี Adobe Voco ที่สามารถเปลี่ยนเสียงออกมาโชว์เดโม่ด้วยครับ แต่ทางนั้นก็ปิดไปแล้ว

      แต่ก็ยังมี dev เจ้าอื่นเลียนแบบออกมา สำหรับใครอยากลองก็ลองนะครับ https://lyrebird.ai/ เหมือนใน Mission Impossible เลยแหละครับ

      ส่วนตัวมองว่ายังไงก็ยังมีผู้เชี่ยวชาญที่สามารถตรวจสอบได้ครับว่าจริงหรือไม่จริง ถ้าขึ้นศาลกันอาจจะดูที่ไฟล์หรือวิเคราะห์กันถึงระดับพิกเซลอันนี้ก็อีกเรื่อง  เหมือนเรื่องลายมือของเรายังมีนักวิเคราะห์ได้เลย แต่ก็น่ากลัวจริง ๆ แหละครับ อะไรจะเกิดขึ้นถ้า "หลักฐาน" เชื่อถือไม่ได้อีกต่อไป เรื่องนี้อาจรวมถึงเรื่องอื่นด้วยนะครับ เช่น หลักฐานปลอมทางวิทยาศาสตร์ หรือใครไม่ชอบหน้าเราก็เอาหน้ากับเสียงมาใส่ร้ายเรา บลา ๆ

    • Avatar

      iqsk131 Post on June 15, 2019 at 7:41 pm

      #1008949

      มีมาซักพักแล้วล่ะครับ เว็บหนังโป๊ใหญ่ๆเองก็ประกาศแบนไปซักพักแล้วด้วย แต่แบนยังไงก็ไม่หมดซักที

      แต่ประสิทธิภาพของมันตอนนั้น มือสมัครเล่นก็ยังพอจับผิดได้ไม่ยาก มันก็เลยถูกใช้ในแง่ความบันเทิง (แต่คนที่โดนไม่บันเทิงด้วย) มากกว่าจะเอาไปใช้บิดเบือนข้อมูลครับ 

      แต่ตามข่าวนี้ถ้ามันเนียนมาก เอาแค่ระดับมือสมัครเล่นแยกไม่ออกก็พอ ไม่ต้องถึงขั้นหลอกผู้เชียวชาญหรอก แค่นี้ก็บิดเบือนข้อมูลแล้วสร้างความวุ่นวายได้ไม่น้อยแล้วครับ โดยเฉพาะประเทศที่ประชาชนไม่ค่อยสนใจจะแยกแยะว่ามันเป็นของจริงหรือของปลอม

  5. Avatar

    Kama Kamaha Post on June 15, 2019 at 7:39 pm

    #1008948

    เอาไปช่วยครูในคดีแย่งชิงหวยได้ไหม?

  6. Avatar

    devilshop Post on June 15, 2019 at 9:40 pm

    #1008952

    ท่าทางเดียวจะได้วุ่นวายกันน่าดู 🙂 🙂

  7. Avatar

    some1 Post on June 15, 2019 at 9:45 pm

    #1008953

    เข้าเว็บโป๊แล้วลองหาชื่อดาราซักคนดูครับ เพียบ

  8. Avatar

    e20rsn Post on June 15, 2019 at 10:37 pm

    #1008955

    มันใช้สร้างความเกลียดชังได้ น่ากลัวจริงไ

  9. angelknight

    angelknight Post on June 16, 2019 at 5:19 am

    #1008957

    ต่อไปวุ่นวายแน่ คลิปตัวจริงตัวปลอมว่อนเน็ต มันยิ่งเนียนขึ้นเรื่อยๆ

  10. Avatar

    iammote Post on June 16, 2019 at 11:25 pm

    #1008977

    อันตรายและวุ่นวายแน่ๆ ปลอมไปหลอกต่างๆนาๆ

  11. Avatar

    kaecoba Post on June 17, 2019 at 8:33 am

    #1008984

    ขนาดตอนนี้ยังไม่มี ตอนนี้ประเทศเรามีแต่เรื่องสาดโคลนมากทั้งปั่นกระแส ทั้งเต้าข่าว สาดโคลน 
    น่ากลัวมากถ้าไอ้นี่ถูกใช้ในบ้านเราทางที่ผิดนี่ยิ่งแล้วใหญ่ คนไทยโดนมอมด้วยเรื่องพวกนี้ง่ายมาก น่ากลัว

  12. peter_milestone

    peter_milestone Post on June 17, 2019 at 10:22 am

    #1008989

    อันตรายมาก ถ้ายังปล่อยให้มีการสร้าง fake vdo แบบนี้
    ถ้ามาใช้ในประเทศไทยเพื่อผลประโยชน์ทางการเมือง
    รับรองฆ่ากันตายยกประเทศ

Leave a Reply

To Top