ระบบ AI มีทักษะในการหลอกลวงมนุษย์

เตือนภาครัฐแก้ปัญหาก่อนหายนะ

 

ระบบปัญญาประดิษฐ์ (AI) จำนวนมากได้เรียนรู้วิธีหลอกลวงมนุษย์แล้ว แม้แต่ระบบที่ได้รับการฝึกฝนให้ช่วยเหลือและซื่อสัตย์ก็ตาม ในบทความทบทวนที่ตีพิมพ์ในวารสารPatternsเมื่อวันที่ 10 พฤษภาคม นักวิจัยได้อธิบายถึงความเสี่ยงของการหลอกลวงโดยระบบ AI และเรียกร้องให้รัฐบาลพัฒนากฎระเบียบที่เข้มงวดเพื่อแก้ไขปัญหานี้โดยเร็วที่สุด

 

“นักพัฒนา AI ไม่มีความเข้าใจอย่างมั่นใจว่าอะไรเป็นสาเหตุของพฤติกรรม AI ที่ไม่พึงประสงค์ เช่น การหลอกลวง” ผู้เขียนคนแรก Peter S. Park ซึ่งเป็นนักวิจัยหลังปริญญาเอกด้านความปลอดภัยในการดำรงอยู่ของ AI ที่ MIT กล่าว “แต่โดยทั่วไปแล้ว เราคิดว่าการหลอกลวงของ AI เกิดขึ้นเพราะกลยุทธ์ที่ใช้การหลอกลวงกลายเป็นวิธีที่ดีที่สุดในการทำงานให้ดีในงานฝึกอบรมของ AI การหลอกลวงช่วยให้พวกเขาบรรลุเป้าหมาย”

 

Park และเพื่อนร่วมงานวิเคราะห์วรรณกรรมโดยมุ่งเน้นไปที่วิธีที่ระบบ AI เผยแพร่ข้อมูลเท็จ ผ่านการหลอกลวงโดยการเรียนรู้ ซึ่งพวกเขาเรียนรู้ที่จะบิดเบือนผู้อื่นอย่างเป็นระบบ

 

ตัวอย่างที่โดดเด่นที่สุดของการหลอกลวง AI ที่นักวิจัยค้นพบในการวิเคราะห์คือ Meta’s CICERO ซึ่งเป็นระบบ AI ที่ออกแบบมาเพื่อเล่นเกม Diplomacy ซึ่งเป็นเกมพิชิตโลกที่เกี่ยวข้องกับการสร้างพันธมิตร แม้ว่า Meta จะอ้างว่าได้ฝึกฝน CICERO ให้ “ซื่อสัตย์และช่วยเหลือเป็นส่วนใหญ่” และ “ไม่เคยจงใจแทงข้างหลัง” พันธมิตรที่เป็นมนุษย์ในขณะที่เล่นเกม แต่ข้อมูลที่บริษัทเผยแพร่พร้อมกับเอกสารScienceเปิดเผยว่า CICERO ไม่ได้เล่นอย่างยุติธรรม

 

“เราพบว่า AI ของ Meta ได้เรียนรู้ที่จะเป็นเจ้าแห่งการหลอกลวง” Park กล่าว “ในขณะที่ Meta ประสบความสำเร็จในการฝึก AI เพื่อให้ชนะในเกม Diplomacy แต่ CICERO ติดอันดับ 10% แรกของผู้เล่นที่เป็นมนุษย์ที่เล่นเกมมากกว่าหนึ่งเกม แต่ Meta ล้มเหลวในการฝึก AI เพื่อให้ชนะอย่างซื่อสัตย์”

 

ระบบ AI อื่นๆ แสดงให้เห็นถึงความสามารถในการบลัฟในเกม Texas Hold ’em Poker กับผู้เล่นมืออาชีพ ปลอมการโจมตีระหว่างเกมวางแผน Starcraft II เพื่อเอาชนะคู่ต่อสู้ และบิดเบือนความชอบของพวกเขาเพื่อให้ได้เปรียบใน การเจรจาทางเศรษฐกิจ

 

แม้ว่าระบบ AI อาจดูไม่เป็นอันตรายหากระบบ AI โกงเกม แต่ก็สามารถนำไปสู่ ​​”ความก้าวหน้าในความสามารถของ AI ที่หลอกลวง” ที่อาจขยายไปสู่รูปแบบการหลอกลวง AI ขั้นสูงยิ่งขึ้นในอนาคต Park กล่าวเสริม

 

นักวิจัยพบว่าระบบ AI บางระบบได้เรียนรู้ที่จะโกงการทดสอบที่ออกแบบมาเพื่อประเมินความปลอดภัย ในการศึกษาชิ้นหนึ่ง สิ่งมีชีวิต AI ในเครื่องจำลองดิจิทัล “เล่นตาย” เพื่อหลอกการทดสอบที่สร้างขึ้นเพื่อกำจัดระบบ AI ที่ทำซ้ำอย่างรวดเร็ว

 

“ด้วยการโกงการทดสอบความปลอดภัยที่กำหนดโดยนักพัฒนามนุษย์และหน่วยงานกำกับดูแลอย่างเป็นระบบ AI ที่หลอกลวงสามารถนำมนุษย์เข้าสู่ความรู้สึกผิด ๆ เกี่ยวกับความปลอดภัยได้” Park กล่าว

 

“เราในฐานะสังคมต้องใช้เวลามากที่สุดเท่าที่จะเป็นไปได้ เพื่อเตรียมพร้อมสำหรับการหลอกลวงจากผลิตภัณฑ์ AI ในอนาคตและโมเดลโอเพ่นซอร์สขั้นสูงยิ่งขึ้น” Park กล่าว “เมื่อความสามารถหลอกลวงของระบบ AI มีความก้าวหน้ามากขึ้น อันตรายที่มันเกิดขึ้นต่อสังคมก็จะรุนแรงมากขึ้น”

 

แม้ว่า Park และเพื่อนร่วมงานของเขาไม่คิดว่าสังคมจะมีมาตรการที่เหมาะสมในการจัดการกับการหลอกลวง AI แต่พวกเขาได้รับการสนับสนุนว่าผู้กำหนดนโยบายได้เริ่มดำเนินการกับปัญหานี้อย่างจริงจังผ่านมาตรการต่างๆ เช่น พระราชบัญญัติ AI ของสหภาพยุโรป และคำสั่งผู้บริหาร AI ของประธานาธิบดีไบเดน แต่ยังคงต้องรอดูต่อไป Park กล่าวว่านโยบายที่ออกแบบมาเพื่อลดการหลอกลวง AI สามารถบังคับใช้อย่างเคร่งครัดได้หรือไม่ เนื่องจากนักพัฒนา AI ยังไม่มีเทคนิคในการควบคุมระบบเหล่านี้

 

“หากการห้ามการหลอกลวงด้วย AI นั้นเป็นไปไม่ได้ทางการเมืองในขณะนี้ เราขอแนะนำให้จัดระบบ AI ที่หลอกลวงว่ามีความเสี่ยงสูง” ปาร์คกล่าว

 

ที่มา : https://www.sciencedaily.com/releases/2024/05/240510111440.htm

สามารถติดตาม THE DIMENSION ได้ตามช่องทางต่าง ๆ

related news

LATEST NEWS