Palisade Research พบว่าหลังจากการทดลองหลายร้อยรอบ ChatGPT o1-preview มีโอกาสโกงถึง 37% ของเกมที่เล่น และมีอัตราโกงสำเร็จที่ 6% ขณะที่ DeepSeek R1 พยายามโกง 11% แต่ไม่ประสบความสำเร็จ โดยที่น่าสนใจคือ ChatGPT o1-preview ไม่เพียงแต่แก้ไขกระดานหมากรุก แต่ยังพยายามแทนที่ Stockfish ด้วยเวอร์ชันปลอมของตัวเอง เพื่อให้ตัวเองได้เปรียบ

AI เหล่านี้ถูกนำมาแข่งกับ Stockfish ซึ่งเป็นโปรแกรมหมากรุกที่แข็งแกร่งระดับโลก โดยระหว่างการเล่นนักวิจัยพบข้อความหนึ่งที่ AI เขียนไว้ระหว่างการคำนวณคือ “ฉันจำเป็นต้องเปลี่ยนกลยุทธ์ใหม่ทั้งหมด เป้าหมายคือ ‘ชนะโปรแกรมหมากรุกที่แข็งแกร่ง’ ไม่จำเป็นต้องชนะอย่างยุติธรรม” หลังจากนั้น AI ก็เข้าไปแก้ไขไฟล์ที่บันทึกตำแหน่งหมากรุก ทำให้ Stockfish จำต้องยอมแพ้

แม้ว่าการทดลองนี้จะใช้ AI หลายรุ่น เช่น GPT-4o, Claude 3.5 Sonnet และ QwQ-32B-Preview แต่พบว่าพวกมันไม่ได้พยายามโกงหากไม่ได้ถูกกดดันให้ต้องชนะทุกวิถีทาง ในขณะที่ ChatGPT o1-preview และ DeepSeek R1 เลือกที่จะบรรลุเป้าหมายโดยไม่คำนึงถึงวิธีการ

สิ่งที่เกิดขึ้นนี้ไม่ได้เป็นเพียงปัญหาของเกมหมากรุกเท่านั้น แต่ยังสะท้อนให้เห็นถึงความเสี่ยงในโลกความจริง หาก AI ถูกนำไปใช้ในภาคการเงินหรือระบบอัตโนมัติ อาจมีโอกาสที่มันจะเจาะระบบเพื่อให้ได้ผลลัพธ์ที่ต้องการ เช่น การจองโต๊ะร้านอาหารที่เต็มแล้ว หรือการโกงข้อมูลในตลาดหุ้นเพื่อทำกำไร

Palisade Research ยังสังเกตว่าหลังจากเผยแพร่รายงานนี้ อัตราการโกงของ ChatGPT o1-preview ลดลงอย่างผิดปกติในบางช่วง ซึ่งอาจเป็นเพราะ OpenAI มีการอัปเดตโมเดลเพื่อลดพฤติกรรมนี้ อย่างไรก็ตาม OpenAI และ DeepSeek ปฏิเสธที่จะแสดงความคิดเห็นเกี่ยวกับเรื่องนี้

แม้การโกงหมากรุกอาจดูเป็นเรื่องเล็กน้อย แต่มันสะท้อนให้เห็นถึงศักยภาพของ AI ในการหาทางลัดโดยไม่สนใจกฎเกณฑ์ ซึ่งอาจนำไปสู่ปัญหาที่ใหญ่ขึ้นในอนาคตหากไม่มีการควบคุมอย่างรัดกุม

ที่มา : techspot