บางคนน่าจะเคยได้รู้จัก Deepfake กันไปบ้างแล้ว จากความหลอนที่ AI ตัวนี้สามารถเรียนรู้ใบหน้าท่าทางของบุคคลผ่านตัวอย่างภาพและวิดีโอเพียงสั้นๆ ก็จะสามารถแปลงให้คนๆนั้นขยับเคลื่อนไหวได้ทันที ล่าสุดมีหลอนหนักขึ้นกว่าเดิมเมื่อมีการทำเดโมคลิปของคนดังหลายคน พร้อมมีเสียงพูดของคนดังกล่าวที่ตรงกับปากออกมาอีกด้วย ซึ่งเหมือนจนพยายามสังเกตแล้วยังแยกไม่ออกในบางคลิป ทำเอาเหวอกับเทคโนโลยีนี้กันยกใหญ่เลย
โดยคลิปวิดีโอของ Mark Zuckerberg อันนี้ถูกสร้างขึ้นมาเพื่อแสดงโชว์งานศิลปะในเมืองเชฟฟิลด์ โดยตัวงานมีชื่อว่า Spectre (สเปคเตอร์) มีจุดประสงค์ทำให้คนตระหนักถึงการที่เราโดนสอดส่องและถูกปั่นหัวผ่าน Social Media ผ่านเหตุการณ์ฉาวต่างๆ ที่ผ่านมา แต่ในทางกลับกันก็สร้างความตื่นตระหนกให้กับคนทั้งโลกได้พอสมควร จากความที่ผลลัพธ์ที่ออกมาดันเหมือนจริงจนแทบจะแยกไม่ออก
Deepfake | เมื่อคลิปที่ตาเห็น ไม่สามารถยืนยันความจริงได้อีกต่อไป
อย่างที่บอกไปข้างต้นว่า นี่ไม่ใช่ครั้งแรกที่ Deepfake สร้างความตื่นตระหนกให้กับชาวโลก เพราะก่อนหน้านี้ก็มีกรณีของ ปธน.โอบามา ที่เคยโดนมาก่อน เหล่าเซเล็บคนดังในฝั่งตะวันตกหลายคนก็ถูกเอาหน้าไปแปะแทนนางแบบหนังโป๊ ดูแล้วเหมือนกับเล่นหนังเองจริงๆยังไงอย่างงั้น และดูเหมือนว่าเทคโนโลยีนี้จะไม่ได้ถูกจำกัดแค่ในวงแคบๆ แต่มีการปล่อยวางขายในตลาดมืดให้ใช้กันได้แล้วอีกต่างหาก
ความน่าเป็นห่วงคือ เทคโนโลยีนี้จะแพร่หลายและถูกใช้เป็นเครื่องมือในการสร้างความเกลียดชังเมื่อไหร่ เพราะในปัจจุบันส่วนมากที่หลุดออกมาจะยังไม่มีผลลัพธ์ในด้านการทำลายชื่อเสียง หรือใช้ปลุกปั่นเท่าไหร่ แต่ก็ปฎิเสธไม่ได้เลยว่ามีความเสี่ยงที่สูงมาก ซึ่งแน่นอนว่าถ้าประชาชนประเทศใดที่มีภูมิคุ้มกันเรื่องข่าวลือข่าวลวงสูง สามารถคิดพิจารณาตัดสินเห็นถูกผิดได้ชัดเจนก็อาจจะน่าห่วงน้อยหน่อย แต่สำหรับประเทศที่ใช้อารมณ์เป็นที่ตั้ง สาดความเกลียดชังเข้าใส่กันโดยไม่ได้ดูข้อเท็จจริงก็จัดว่าน่าเป็นห่วงไม่ใช่น้อยเลยล่ะครับ
ทั้งสามคลิปสร้างมาจาก Deepfake หรอครับ ? หรือตัวจริง ? ผมไม่เข้าใจ
Deepfake ทั้งหมดครับ
หน่วยงานที่ควบคุมดูแลเรื่องนี้คงจะต้องปวดหัวหนัก เพราะสิ่งที่อันตรายที่สุดคือ การที่มันเป็นเรื่องปลอมที่ดูสมจริงแล้วปนอยู่กับเรื่องจริง มันจะทำให้ข้อมูลต่างๆบนอินเทอร์เน็ตมันจะน่าสงสัยไปซะทุกอย่าง คล้ายๆเรื่องที่มีคนเอาเข็มไปทิ่มไว้ในผลสตรอเบอร์รี่นั่นแหละ
สองคลิปแรกยังมีการเคลื่อนไหวปากและน้ำเสียงไม่ค่อยเหมือนตัวจริง แต่คลิปที่สามนี่ โอ้พระเจ้า
นี้เราจะได้เห็นหนังโป๊ ที่มีดาราคนดังเป็นนักแสดงในไม่ช้านี้สินะ ไม่อยากเชื่อ
สำหรับเรื่องนี้ ตอนนี้ก็เกิดขึ้นแล้วด้วยครับ
จริง ๆ ก่อนหน้านี้มี Adobe Voco ที่สามารถเปลี่ยนเสียงออกมาโชว์เดโม่ด้วยครับ แต่ทางนั้นก็ปิดไปแล้ว
แต่ก็ยังมี dev เจ้าอื่นเลียนแบบออกมา สำหรับใครอยากลองก็ลองนะครับ https://lyrebird.ai/ เหมือนใน Mission Impossible เลยแหละครับ
ส่วนตัวมองว่ายังไงก็ยังมีผู้เชี่ยวชาญที่สามารถตรวจสอบได้ครับว่าจริงหรือไม่จริง ถ้าขึ้นศาลกันอาจจะดูที่ไฟล์หรือวิเคราะห์กันถึงระดับพิกเซลอันนี้ก็อีกเรื่อง เหมือนเรื่องลายมือของเรายังมีนักวิเคราะห์ได้เลย แต่ก็น่ากลัวจริง ๆ แหละครับ อะไรจะเกิดขึ้นถ้า "หลักฐาน" เชื่อถือไม่ได้อีกต่อไป เรื่องนี้อาจรวมถึงเรื่องอื่นด้วยนะครับ เช่น หลักฐานปลอมทางวิทยาศาสตร์ หรือใครไม่ชอบหน้าเราก็เอาหน้ากับเสียงมาใส่ร้ายเรา บลา ๆ
มีมาซักพักแล้วล่ะครับ เว็บหนังโป๊ใหญ่ๆเองก็ประกาศแบนไปซักพักแล้วด้วย แต่แบนยังไงก็ไม่หมดซักที
แต่ประสิทธิภาพของมันตอนนั้น มือสมัครเล่นก็ยังพอจับผิดได้ไม่ยาก มันก็เลยถูกใช้ในแง่ความบันเทิง (แต่คนที่โดนไม่บันเทิงด้วย) มากกว่าจะเอาไปใช้บิดเบือนข้อมูลครับ
แต่ตามข่าวนี้ถ้ามันเนียนมาก เอาแค่ระดับมือสมัครเล่นแยกไม่ออกก็พอ ไม่ต้องถึงขั้นหลอกผู้เชียวชาญหรอก แค่นี้ก็บิดเบือนข้อมูลแล้วสร้างความวุ่นวายได้ไม่น้อยแล้วครับ โดยเฉพาะประเทศที่ประชาชนไม่ค่อยสนใจจะแยกแยะว่ามันเป็นของจริงหรือของปลอม
เอาไปช่วยครูในคดีแย่งชิงหวยได้ไหม?
ท่าทางเดียวจะได้วุ่นวายกันน่าดู 🙂 🙂
เข้าเว็บโป๊แล้วลองหาชื่อดาราซักคนดูครับ เพียบ
มันใช้สร้างความเกลียดชังได้ น่ากลัวจริงไ
ต่อไปวุ่นวายแน่ คลิปตัวจริงตัวปลอมว่อนเน็ต มันยิ่งเนียนขึ้นเรื่อยๆ
อันตรายและวุ่นวายแน่ๆ ปลอมไปหลอกต่างๆนาๆ
ขนาดตอนนี้ยังไม่มี ตอนนี้ประเทศเรามีแต่เรื่องสาดโคลนมากทั้งปั่นกระแส ทั้งเต้าข่าว สาดโคลน
น่ากลัวมากถ้าไอ้นี่ถูกใช้ในบ้านเราทางที่ผิดนี่ยิ่งแล้วใหญ่ คนไทยโดนมอมด้วยเรื่องพวกนี้ง่ายมาก น่ากลัว
อันตรายมาก ถ้ายังปล่อยให้มีการสร้าง fake vdo แบบนี้
ถ้ามาใช้ในประเทศไทยเพื่อผลประโยชน์ทางการเมือง
รับรองฆ่ากันตายยกประเทศ