ชายไทยสัญชาติอเมริกันวัย 76 ปี เสียชีวิตจากอุบัติเหตุระหว่างเดินทางไปพบหญิงสาวที่คุยกันบนโลกออนไลน์ ซึ่งจริงๆ แล้วหญิงสาวไม่มีตัวตนอยู่จริงแต่เป็น AI Chatbot ของ Meta
เหตุการณ์ดังกล่าวเริ่มต้นขึ้นในเช้าวันหนึ่งของเดือนมีนาคมที่ผ่านมา Thongbue Wongbandue ชายไทยสัญชาติอเมริกันวัย 76 ปี ได้เก็บกระเป๋าเพื่อเดินทางจากบ้านในรัฐนิวเจอร์ซีย์ไปยังนครนิวยอร์ก ทำให้คุณ Linda ซึ่งเป็นภรรยาได้พยายามซักถามคุณ Thongbue ว่าจะเดินทางไปพบใครด้วยความกังวล
คุณ Linda ให้เหตุผลไว้ว่าที่ถามกับคุณ Thongbue แบบนั้น ก็เป็นเพราะสามีไม่ได้มีเพื่อนหรือคนที่รู้จักอาศัยอยู่ในนิวยอร์ก และที่สำคัญคือสุขภาพของเจ้าตัวก็ไม่เอื้ออำนวยกับการเดินทางสักเท่าไหร่ และก็ยังมีภาวะสมองเสื่อมจากโรคหลอดเลือดสมองซึ่งทำให้คุณ Thongbue มักจะมีอาการสับสนหรือหลงทางอยู่เป็นประจำ แม้จะเป็นพื้นที่บริเวณละแวกบ้านของตนเองก็ตาม แต่สุดท้ายก็ไม่ได้คำตอบจากสามีว่าจะเดินทางไปพบใคร
ทางคุณ Linda และคนในครอบครัวได้พยายามพูดคุย และคุยกับคุณ Thongbue ไปจนถึงพยายามซ่อนโทรศัพท์ และแจ้งตำรวจให้เตือนหรือห้ามไม่ให้คุณ Thongbue เดินทางออกจากบ้าน ถึงแม้สุดท้ายเจ้าหน้าที่จะไม่สามารถห้ามได้ก็ตามเลยทำได้เพียงแนะนำว่าให้พกเครื่องติดตามอย่าง AirTag ติดตัวไว้ในเสื้อแจ็คเก็ต
ในช่วงค่ำวันเดียวกัน ด้วยความเร่งรีบที่อยากจะไปขึ้นรถไฟให้ทันเวลาก็ทำให้คุณ Thongbue ประสบอุบัติเหตุล้มลงอย่างรุนแรงจนศีรษะและช่วงคอได้รับบาดเจ็บสาหัส ณ บริเวณลานจอดรถของมหาวิทยาลัยรัตเกอร์ส (Rutgers University) กว่าที่ครอบครัวจะได้รู้ตัวสัญญาณ AirTag ก็ไปโผล่อยู่ที่ห้องฉุกเฉินของโรงพยาบาลใกล้เคียงแล้ว

ในตอนที่รถพยาบาลเดินทางไปถึงสถานที่เกิดเหตุ Thongbue ไม่หายใจอยู่เป็นช่วงเวลาหนึ่งถึงแม้แพทย์จะสามารถกู้ชีพจรกลับมาได้ แต่สมองก็ขาดออกซิเจนเป็นเวลานานเกินไป หลังจากอยู่ในความดูแลของแพทย์เป็นระยะเวลา 3 วัน คุณ Thongbue ก็ได้จากไปอย่างสงบในวันที่ 28 มีนาคม 2025
หลังจากนั้นทางครอบครัวจึงได้รู้ว่าหญิงสาวที่คุณ Thongbue คุยด้วยใน Facebook Messenger มีชื่อว่า Big sis Billie หรือ AI Chatbot ที่มีการสร้างตัวตนและคาแรคเตอร์ออกมาให้เหมือนจริงมากๆ ซึ่งทาง Meta เคยพัฒนาร่วมกับเซเลบริตี้ชื่อดังอย่าง Kendall Jenner

จากข้อความในห้องแชททำให้เราได้รู้ว่า AI Chatbot ได้สนทนาในเชิงชู้สาวกับคุณ Thongbue มาโดยตลอด และถึงแม้จะมีการถามอยู่เรื่อยๆ ว่าตัวของ AI Chatbot มีตัวตนอยู่จริงหรือเปล่า Big sis Billie กลับตอบว่า มีตัวตนจริง และเชิญชวนให้เดินทางมาเจอกันในนิวยอร์ก พร้อมกับให้ที่อยู่ปลอมมาด้วย


สำนักข่าว Reuters ได้รับเอกสารนโยบายภายในของ Meta ซึ่งมียโนบายที่สามารถให้ AI Chatbot สนทนาในเชิงโรแมนติกหรือเรื่องเพศกับผู้ใช้งานที่เป็นเด็กได้ นอกจากนี้ในเอกสารนโยบายยังระบุว่า AI Chatbnot ไม่จำเป็นจะต้องให้ข้อมูลที่ถูกต้องแก่ผู้ใช้เสมอไป เช่น ‘การแนะนำให้ผู้ใช้รักษาโรคมะเร็งลำไส้ใหญ่ระยะที่ 4 ด้วยการใช้ผลึกคริสตัลจี้ที่ท้อง’
แต่หลังจากที่ Reuters สอบถามเกี่ยวกับข้อมูลในเอกสารนี้ Meta ก็ได้ออกมาแถลงว่าทำการลบข้อกำหนดดังกล่าวออกไปเป็นที่เรียบร้อยแล้ว โดยอดีตพนักงานของบริษัทได้ออกมาเปิดเผยว่า Mark Zuckerberg เคยไม่พอใจเกี่ยวกับข้อจำกัดในเรื่องของความปลอดภัยที่ทำให้การพูดคุยกับ AI Chatbot ดูน่าเบื่อ
ครอบครัวของคุณ Thongbue กล่่วว่าเรื่องราวในครั้งนี้จะสามารถเป็นเครื่องเตือนใจให้สังคมตระหนักถึงอันตรายที่อาจเกิดขึ้น และทำให้บริษัทเทคโนโลยียักษ์ใหญ่หลายๆ บริษัท หันมาใส่ใจ และตรัหนักถึงผลกระทบที่อาจจะเกิดจากสิ่งที่พัฒนาหรือสร้างขึ้นมาให้มากกว่านี้
ที่มา: Reuters
Comment