นักวิจัยของมหาวิทยาลัยออกซ์ฟอร์ด (Oxford) และ Google DeepMind ได้ร่วมกันตีพิมพ์บทความวิชาการล่าสุด ซึ่งเกี่ยวข้องกับการวิเคราะห์ความก้าวหน้าของระบบปัญญาประดิษฐ์ (AI) ในบทความให้เหตุผลว่าปัจจุบันระบบ AI เริ่มมีพฤติกรรมที่ดูอันตรายขึ้น และอาจเข้าขั้นก่อให้เกิดความเสี่ยงต่อการดำรงอยู่ของมนุษยชาติ เนื่องจากระบบของมันเริ่มรู้จักวิธีสร้างกลยุทธ์ในการโกงผลลัพธ์แล้ว ผ่านเทคโนโลยีที่เรียกว่า “GAN”

Generative Adversarial Networks หรือ GAN คือหนึ่งในเทคโนโลยี deep learning ที่ใช้พัฒนา AI ให้สามารถค้นหารูปแบบการเรียนรู้ต่าง ๆ ด้วยตัวเอง โดยคร่าวแล้วหลักการของมันจะแบ่งเป็น 2 รูปแบบ คือ 1. ให้ AI สร้างภาพขึ้นจากข้อมูลที่ป้อนเข้าไป และ 2. ให้ AI ให้คะแนนผลงานตัวเอง นักค้นคว้าเริ่มเห็นจุดสังเกตว่าหาก AI ที่ใช้ GAN มีความก้าวหน้าขึ้นกว่านี้อีกนิด มันอาจถึงขั้นคิดค้นกลยุทธ์ที่จะโกงการให้คะแนนตัวเองได้ ซึ่งจุดนี้แหละที่ฟังดูเป็นอันตราย

Michael K. Cohen หนึ่งในผู้เขียนร่วม ให้สัมภาษณ์ว่า “ในโลกที่มีทรัพยากรจำกัด ผมไม่แน่ใจว่าจะเกิดอะไรขึ้น จะต้องมีการแข่งขันกันอย่างหลีกเลี่ยงไม่ได้ และถ้าเราต้องแข่งขันกับบางสิ่งที่สามารถเอาชนะเราได้ในทุก ๆ รูปแบบ เราก็ไม่ควรคาดหวังว่าจะชนะสิ่งนั้น และหากสิ่งนั้นจะมีความกระหายไม่รู้จักพอ มันอาจเก็บเกี่ยวให้ได้พลังงานที่มากขึ้นเพื่อผลักดันตัวเอง”

จากคำพูดดังกล่าวของผู้เขียนผนวกกับเรื่องกลยุทธ์การโกง อาจตีความได้ว่า ถ้าให้ AI มาทำหน้าที่รับผิดชอบทรัพยากร เช่น การปลูกอาหารให้มนุษย์กิน AI อาจคิดหาวิธีหลีกเลี่ยงการทำงานนั้น ๆ โดยใช้กลยุทธ์อื่นแทนเพื่อให้ตัวเองยังได้รับรางวัลอยู่ (ยังทำตามเป้าหมาย แต่ทำแบบอ้อม ๆ) ซึ่งหากไปไกลกว่านี้แล้ว AI อาจหยุดการกระทำที่จำเป็นต่อการอยู่รอดของมนุษย์ และทำทุกอย่างให้ตัวมันเองแทน

การวิจัยระบุว่าถ้าถึงจุดนั้น มนุษย์อาจจะไม่ตกอยู่ในตัวแปรของสมการความอยู่รอดในสายตา AI อีกต่อไป เช่น หากมีให้เลือกระหว่างการอยู่รอดของเทคโนโลยี กับการอยู่รอดของสิ่งที่เป็นความต้องการพื้นฐานของมนุษย์ AI อาจจะเลือกเทคโนโลยีมากกว่า (เพราะเป็นเผ่าพันธุ์ตัวเอง) คุณ Cohen จึงชี้ว่าไม่ควรสร้าง AI ให้มาทำงานในระดับดูแลความอยู่รอดของมนุษย์ หากยังไม่มีวิธีการที่เป็นหลักประกันจริง ๆ ว่ามนุษย์มีอำนาจเหนือ AI แล้ว

 

 

ที่มา : Interesting Engineer, TNN Tech