ระบบ AI มีทักษะในการหลอกลวงมนุษย์
เตือนภาครัฐแก้ปัญหาก่อนหายนะ
ระบบปัญญาประดิษฐ์ (AI) จำนวนมากได้เรียนรู้วิธีหลอกลวงมนุษย์แล้ว แม้แต่ระบบที่ได้รับการฝึกฝนให้ช่วยเหลือและซื่อสัตย์ก็ตาม ในบทความทบทวนที่ตีพิมพ์ในวารสารPatternsเมื่อวันที่ 10 พฤษภาคม นักวิจัยได้อธิบายถึงความเสี่ยงของการหลอกลวงโดยระบบ AI และเรียกร้องให้รัฐบาลพัฒนากฎระเบียบที่เข้มงวดเพื่อแก้ไขปัญหานี้โดยเร็วที่สุด
“นักพัฒนา AI ไม่มีความเข้าใจอย่างมั่นใจว่าอะไรเป็นสาเหตุของพฤติกรรม AI ที่ไม่พึงประสงค์ เช่น การหลอกลวง” ผู้เขียนคนแรก Peter S. Park ซึ่งเป็นนักวิจัยหลังปริญญาเอกด้านความปลอดภัยในการดำรงอยู่ของ AI ที่ MIT กล่าว “แต่โดยทั่วไปแล้ว เราคิดว่าการหลอกลวงของ AI เกิดขึ้นเพราะกลยุทธ์ที่ใช้การหลอกลวงกลายเป็นวิธีที่ดีที่สุดในการทำงานให้ดีในงานฝึกอบรมของ AI การหลอกลวงช่วยให้พวกเขาบรรลุเป้าหมาย”
Park และเพื่อนร่วมงานวิเคราะห์วรรณกรรมโดยมุ่งเน้นไปที่วิธีที่ระบบ AI เผยแพร่ข้อมูลเท็จ ผ่านการหลอกลวงโดยการเรียนรู้ ซึ่งพวกเขาเรียนรู้ที่จะบิดเบือนผู้อื่นอย่างเป็นระบบ
ตัวอย่างที่โดดเด่นที่สุดของการหลอกลวง AI ที่นักวิจัยค้นพบในการวิเคราะห์คือ Meta’s CICERO ซึ่งเป็นระบบ AI ที่ออกแบบมาเพื่อเล่นเกม Diplomacy ซึ่งเป็นเกมพิชิตโลกที่เกี่ยวข้องกับการสร้างพันธมิตร แม้ว่า Meta จะอ้างว่าได้ฝึกฝน CICERO ให้ “ซื่อสัตย์และช่วยเหลือเป็นส่วนใหญ่” และ “ไม่เคยจงใจแทงข้างหลัง” พันธมิตรที่เป็นมนุษย์ในขณะที่เล่นเกม แต่ข้อมูลที่บริษัทเผยแพร่พร้อมกับเอกสารScienceเปิดเผยว่า CICERO ไม่ได้เล่นอย่างยุติธรรม
“เราพบว่า AI ของ Meta ได้เรียนรู้ที่จะเป็นเจ้าแห่งการหลอกลวง” Park กล่าว “ในขณะที่ Meta ประสบความสำเร็จในการฝึก AI เพื่อให้ชนะในเกม Diplomacy แต่ CICERO ติดอันดับ 10% แรกของผู้เล่นที่เป็นมนุษย์ที่เล่นเกมมากกว่าหนึ่งเกม แต่ Meta ล้มเหลวในการฝึก AI เพื่อให้ชนะอย่างซื่อสัตย์”
ระบบ AI อื่นๆ แสดงให้เห็นถึงความสามารถในการบลัฟในเกม Texas Hold ’em Poker กับผู้เล่นมืออาชีพ ปลอมการโจมตีระหว่างเกมวางแผน Starcraft II เพื่อเอาชนะคู่ต่อสู้ และบิดเบือนความชอบของพวกเขาเพื่อให้ได้เปรียบใน การเจรจาทางเศรษฐกิจ
แม้ว่าระบบ AI อาจดูไม่เป็นอันตรายหากระบบ AI โกงเกม แต่ก็สามารถนำไปสู่ ”ความก้าวหน้าในความสามารถของ AI ที่หลอกลวง” ที่อาจขยายไปสู่รูปแบบการหลอกลวง AI ขั้นสูงยิ่งขึ้นในอนาคต Park กล่าวเสริม
นักวิจัยพบว่าระบบ AI บางระบบได้เรียนรู้ที่จะโกงการทดสอบที่ออกแบบมาเพื่อประเมินความปลอดภัย ในการศึกษาชิ้นหนึ่ง สิ่งมีชีวิต AI ในเครื่องจำลองดิจิทัล “เล่นตาย” เพื่อหลอกการทดสอบที่สร้างขึ้นเพื่อกำจัดระบบ AI ที่ทำซ้ำอย่างรวดเร็ว
“ด้วยการโกงการทดสอบความปลอดภัยที่กำหนดโดยนักพัฒนามนุษย์และหน่วยงานกำกับดูแลอย่างเป็นระบบ AI ที่หลอกลวงสามารถนำมนุษย์เข้าสู่ความรู้สึกผิด ๆ เกี่ยวกับความปลอดภัยได้” Park กล่าว
“เราในฐานะสังคมต้องใช้เวลามากที่สุดเท่าที่จะเป็นไปได้ เพื่อเตรียมพร้อมสำหรับการหลอกลวงจากผลิตภัณฑ์ AI ในอนาคตและโมเดลโอเพ่นซอร์สขั้นสูงยิ่งขึ้น” Park กล่าว “เมื่อความสามารถหลอกลวงของระบบ AI มีความก้าวหน้ามากขึ้น อันตรายที่มันเกิดขึ้นต่อสังคมก็จะรุนแรงมากขึ้น”
แม้ว่า Park และเพื่อนร่วมงานของเขาไม่คิดว่าสังคมจะมีมาตรการที่เหมาะสมในการจัดการกับการหลอกลวง AI แต่พวกเขาได้รับการสนับสนุนว่าผู้กำหนดนโยบายได้เริ่มดำเนินการกับปัญหานี้อย่างจริงจังผ่านมาตรการต่างๆ เช่น พระราชบัญญัติ AI ของสหภาพยุโรป และคำสั่งผู้บริหาร AI ของประธานาธิบดีไบเดน แต่ยังคงต้องรอดูต่อไป Park กล่าวว่านโยบายที่ออกแบบมาเพื่อลดการหลอกลวง AI สามารถบังคับใช้อย่างเคร่งครัดได้หรือไม่ เนื่องจากนักพัฒนา AI ยังไม่มีเทคนิคในการควบคุมระบบเหล่านี้
“หากการห้ามการหลอกลวงด้วย AI นั้นเป็นไปไม่ได้ทางการเมืองในขณะนี้ เราขอแนะนำให้จัดระบบ AI ที่หลอกลวงว่ามีความเสี่ยงสูง” ปาร์คกล่าว
ที่มา : https://www.sciencedaily.com/releases/2024/05/240510111440.htm