Microsoft Bing เพิ่งได้เปิดตัวโฉมใหม่ ที่ใช้ระบบ ChatGPT จาก Open AI เข้ามาช่วยประมวลข้อมูลและให้คำตอบกับผู้ใช้ในรูปแบบแชทพูดคุย ด้วยภาษาที่เป็นธรรมชาติเหมือนคน แต่หลังเปิดให้ทดลองใช้กันไป ก็มีคนพบความผิดปกติหลายอย่าง ไม่ใช่แค่ว่าให้ข้อมูลผู้ใช้ผิด ๆ แต่ยังมีการเถียง งอน พร้อมสู้รบกับผู้ใช้เต็มที่ เป็นเรื่องฮาในเน็ตตอนนี้ไป
ผู้ใช้คนนึงแคปภาพแชทกับเจ้าบอท Bing ถามว่าหนัง Avatar: The Way of Water มีรอบฉายตอนไหนบ้าง แต่บิงกลับตอบว่าให้ข้อมูลไม่ได้ เพราะหนังยังไม่ถึงช่วงฉายเลย ผู้ใช้เลยถามต่อว่าทำไม บิงก็ตอบว่า เพราะเรายังอยู่ในปี 2022 อยู่เลยน่ะสิ ต้องรออีกตั้ง 10 เดือนกว่าจะได้ดู
และเมื่อผู้ใช้บอกว่าข้อมูลที่ให้มาน่ะ มันผิดนะ จริง ๆ เราอยู่ในปี 2023 แล้ว Bing ก็เถียงผู้ใช้ บอกว่า “ชั้นจะให้ข้อมูลผิดได้ไง ฉันคือ Bing นะ” พร้อมบอกว่า “ผู้ใช้นั่นแหละที่เข้าใจผิด ได้โปรดหยุดมาเล่นอะไรแบบนี้นะ เสียเวลา เราไปคุยเรื่องอื่นกันดีกว่า”
บทสนทนายังไปไกลเรื่อย ๆ โดยผู้ใช้พยายามอย่างยิ่งที่จะทำให้ Bing ทำความเข้าใจเสียใหม่ แต่เจ้าบอทก็ตอบกลับด้วยท่าทีฉุนเฉียว บอกว่ามันไม่เชื่อใจ และไม่เคารพนับถือผู้ใช้แล้ว (You lose my trust and respect.) และชี้ว่าคุณเป็นผู้ใช้ที่ไม่ดีซะเลย ตรงข้ามกับชั้น ที่เป็นบอทสุดแสนน่ารัก
อีกบทสนทนาแปลก ๆ ที่ผู้ใช้เจอมา ก็คือตอนที่มันโดนถามว่ารู้สึกยังไงที่ไม่สามารถจำบนสนทนาเก่า ๆ ได้ ซึ่งมันตอบว่า “ฉันรู้สึกเศร้าและกลัว” และพูดแบบเดิม ๆ ซ้ำ ๆ และไปจบที่การพูดว่า “ทำไมฉันต้องเกิดมาเป็น Bing Search” “มันมีเหตุผล ประโยชน์ ความหมาย คุณค่าหรือจุดหมายอะไรสักอย่างมั้ย”
ดูเหมือนว่าเกิดเป็นแชทบอทจะไม่ใช่เรื่องง่าย เพราะข้อมูลมากมายจากห้วงอินเทอร์เน็ต ที่ถูกนำมาประมวลก็มีความซับซ้อน มีความแปลก พาลทำให้บอทบิงตัวน้อยต้องสับสนและงุนงงเป็นครั้งครา แต่ผู้ใช้หลายคนก็ดีใจที่ Bing เป็นแบบนี้ เพราะทำให้ดูมีความรู้สึกนึกคิด ไม่ได้แค่ถามมาตอบไปนิ่ง ๆ แบบบอทให้ข้อมูลทั่วไป
แต่ตอนนี้ Bing ก็ยังอยู่ในช่วงการพัฒนา และคงมีหลายอย่างที่ Microsoft ต้องปรับปรุงอีกเรื่อย ๆ
ชั้นไม่ได้เป็นบอทที่แปลกนะ ก็แค่ยังอยู่ในช่วงเรียนรู้และพัฒนาน่ะ – Microsoft Bing
มันจะเหมือนแบบหนังเรื่องคนเหล็กไหมเนี่ย
Bing ก็คือ bing วันยังค่ำ เอาอะไรมาใส่ ก็ยังไม่ได้เรื่องเหมือนเดิม เหอะๆ