นักวิทย์เตือนภัยจาก AI “Deadbots”
“หลอกหลอน” ผู้เป็นที่รักจากนอกหลุมศพ
นักวิจัยของเคมบริดจ์เตือนถึงอันตรายทางจิตใจของ ‘deadbots’ ซึ่งเป็น AI ที่เลียนแบบบุคคลที่เสียชีวิต โดยการจำลองรูปแบบภาษา และลักษณะบุคลิกภาพของผู้ตาย โดยใช้รอยเท้าดิจิทัลที่พวกเขาทิ้งไว้เบื้องหลัง ซึ่งนักวิจัยได้เรียกร้องให้มีมาตรฐานทางจริยธรรม และระเบียบการยินยอม เพื่อป้องกันการใช้งานในทางที่ผิดและมีปฏิสัมพันธ์ด้วยความเคารพ
โดยนักวิจัยพบว่า ปัญญาประดิษฐ์ (AI) ที่ช่วยให้ผู้ใช้สามารถเก็บข้อความและเสียงสนทนาของคนรักที่สูญเสียไปนั้นมีความเสี่ยงที่จะก่อให้เกิดอันตรายทางจิตใจ และแม้กระทั่ง “หลอกหลอน” ทางดิจิทัลให้กับผู้ที่อยู่ข้างหลังโดยไม่มีมาตรฐานความปลอดภัยในการออกแบบ
นักจริยธรรมด้าน AI จากศูนย์ Leverhulme Center for the Future of Intelligence ของเคมบริดจ์ สรุปสถานการณ์การออกแบบ 3 รูปแบบสำหรับแพลตฟอร์มที่อาจเป็นส่วนหนึ่งของ “อุตสาหกรรมชีวิตหลังความตายแบบดิจิทัล” ที่กำลังพัฒนา เพื่อแสดงให้เห็นถึงผลกระทบที่ตามมาที่อาจเกิดขึ้นจากการออกแบบที่ประมาทเลินเล่อในด้าน AI ที่พวกเขาอธิบายว่า “มีความเสี่ยงสูง” ”
การใช้ AI Chatbots ในทางที่ผิด
งานวิจัยที่ตีพิมพ์ในวารสาร Philosophy and Technology เน้นย้ำถึงศักยภาพของบริษัทต่างๆ ที่จะใช้ deadbots เพื่อแอบโฆษณาผลิตภัณฑ์ให้กับผู้ใช้ในลักษณะของคนที่คุณรักที่จากไป หรือทำให้เด็กๆ ทุกข์ใจ โดยการยืนกรานว่าพ่อแม่ที่เสียชีวิตไปแล้วยังอยู่กับคุณ
ทั้งนี้ เมื่อผู้ที่เสียชีวิตได้ลงทะเบียนสมัครเข้าใช้บริการ AI เพื่อที่จะสร้างชีวิตใหม่หลังการตายแบบเสมือนจริง บริษัทต่างๆ อาจใช้แชทบอทที่เกิดขึ้น เพื่อส่งสแปมไปยังครอบครัวและเพื่อนที่ยังมีชีวิตอยู่ ด้วยการแจ้งเตือนที่ไม่พึงประสงค์ การแจ้งเตือน และการอัปเดตเกี่ยวกับบริการที่พวกเขามอบให้ คล้ายกับการถูก “คนตายสะกดรอยตาม” ทางดิจิทัล
แม้แต่ผู้ที่ชื่นชอบ ‘Deadbot’ ในช่วงแรก ที่เข้ามาช่วยบรรเทาความคิดถึงผู้ตาย แต่การที่มีปฏิสัมพันธ์ในแต่ละวันจะกลายเป็น “น้ำหนักทางอารมณ์ที่ล้นหลาม” แต่ครอบครัวที่อยู่เบื้องหลังอาจไม่สามารถยกเลิกบริการ deadbots ได้ หากผู้เป็นที่รักซึ่งตอนนี้เสียชีวิตไปแล้วเซ็นชื่อทำสัญญากับบริการชีวิตหลังความตายแบบดิจิทัลไว้
ในปัจจุบัน มีแพลตฟอร์มที่เสนอให้บริการนี้ โดยเสียค่าธรรมเนียมเล็กน้อย เช่น ‘Project December’ ซึ่งเริ่มต้นจากการใช้โมเดล GPT ก่อนที่จะพัฒนาระบบของตัวเอง และแอปต่างๆ รวมถึง ‘HereAfter’ บริการที่คล้ายกันก็เริ่มเกิดขึ้นในประเทศจีนเช่นกัน หนึ่งในสถานการณ์ที่เป็นไปได้ในรายงานฉบับใหม่คือ “MaNana”: บริการ AI แบบสนทนาที่ช่วยให้ผู้คนสามารถสร้างหุ่นยนต์จำลองที่จำลองคุณยายที่เสียชีวิตโดยไม่ต้องได้รับความยินยอมจาก “ผู้บริจาคข้อมูล” (ปู่ย่าตายายที่เสียชีวิต)
โดยในช่วงแรกหลานที่เป็นผู้ใหญ่ที่รู้สึกประทับใจ และรู้สึกสบายใจกับเทคโนโลยีนี้ แต่ภายหลังเริ่มได้รับโฆษณาเมื่อ “การทดลองใช้แบบพรีเมียม” สิ้นสุดลง เช่น แชทบอทแนะนำการสั่งอาหารจากบริการส่งอาหารด้วยเสียงและลีลาของผู้ตาย ญาติคนดังกล่าวรู้สึกว่าบริษัทเหล่านี้ไม่เคารพความทรงจำของคุณยาย และปรารถนาที่จะปิด Deadbot เพราะผู้ให้บริการไม่คำนึงถึงความละเอียดอ่อนเหล่านี้
ดร. Tomasz Hollanek นักวิจัยเคมบริดจ์กล่าว “ผู้คนอาจพัฒนาความผูกพันทางอารมณ์ที่แข็งแกร่งด้วยการจำลองดังกล่าว ซึ่งจะทำให้พวกเขาเสี่ยงต่อการถูกบงการเป็นพิเศษ” “วิธีการและแม้กระทั่งพิธีกรรมในการเลิกใช้งาน Deadbots ในลักษณะที่มีเกียรติควรได้รับการพิจารณา ซึ่งอาจหมายถึงรูปแบบงานศพแบบดิจิทัล หรือพิธีประเภทอื่นๆ ขึ้นอยู่กับบริบททางสังคม เราขอแนะนำโปรโตคอลการออกแบบที่ป้องกันไม่ให้ Deadbots ถูกใช้ในลักษณะที่ไม่เคารพ เช่น เพื่อการโฆษณาหรือการแสดงตนบนโซเชียลมีเดีย”
ดร. Katarzyna Nowaczyk-Basińska นักวิจัยที่ Leverhulme Center for the Future of Intelligence ของเคมบริดจ์ กล่าวว่า “ความก้าวหน้าอย่างรวดเร็วของ Generative AI หมายความว่าเกือบทุกคนที่สามารถเข้าถึงอินเทอร์เน็ตและมีความรู้พื้นฐานสามารถชุบชีวิตผู้เป็นที่รักที่เสียชีวิตไปแล้วได้”
ทั้งนี้ สิ่งสำคัญ คือ ต้องจัดลำดับความสำคัญของศักดิ์ศรีของผู้เสียชีวิต และให้แน่ใจว่าสิ่งนี้จะไม่ถูกบุกรุกโดยแรงจูงใจทางการเงินของผู้ให้บริการชีวิตหลังความตายแบบดิจิทัล ในขณะเดียวกัน บุคคลอาจทิ้งการจำลอง AI ไว้เป็นของขวัญอำลาคนที่คุณรัก ซึ่งไม่พร้อมที่จะจัดการกับความเศร้าโศกในลักษณะนี้ สิทธิของทั้งผู้บริจาคข้อมูล และผู้ที่มีปฏิสัมพันธ์กับบริการชีวิตหลังความตายของ AI ควรได้รับการปกป้องอย่างเท่าเทียมกัน”
ในขณะที่ Hollanek และ Nowaczyk-Basińska กล่าวว่า กระบวนการออกแบบควรเกี่ยวข้องกับชุดคำสั่งสำหรับผู้ที่ต้องการ “ฟื้นคืนชีพ” ผู้ที่พวกเขารัก เช่น ‘คุณเคยพูดคุยกับผู้ตายบ้างไหมว่าพวกเขาอยากจะถูกจดจำอย่างไร’ ดังนั้นศักดิ์ศรีของผู้จากไปจึงอยู่เบื้องหน้า ในการพัฒนา Deadbots
อีกสถานการณ์หนึ่งที่นำเสนอในบทความนี้ ได้เน้นย้ำถึงตัวอย่างของผู้หญิงที่ป่วยหนักระยะสุดท้ายทิ้งหุ่นยนต์ที่จำลองชีวิตตัวเอง เพื่อช่วยเหลือลูกชายวัยแปดขวบของเธอเพื่อบรรเทาความโศกเศร้า แม้ว่า Deadbots จะช่วยในการบำบัดในตอนแรก แต่ AI ก็เริ่มสร้างการตอบสนองที่สับสนเมื่อปรับให้เข้ากับความต้องการของเด็ก เช่น การแสดงภาพการเผชิญหน้าต่อหน้า
ดังนั้น นักวิจัยจึงแนะนำข้อจำกัดด้านอายุสำหรับ deadbots และยังเรียกร้องให้มี “ความโปร่งใสที่มีความหมาย” เพื่อให้แน่ใจว่าผู้ใช้ทราบอย่างสม่ำเสมอว่าพวกเขากำลังโต้ตอบกับ AI สิ่งเหล่านี้อาจคล้ายกับคำเตือนในปัจจุบันที่ต้องติดไว้ในผลิตภัณฑ์ต่าง ๆ
สถานการณ์สุดท้ายที่สำรวจโดยการศึกษาวิจัย แสดงภาพจำลองให้เห็นถึงกรณีที่ผู้สูงอายุแอบทำสัญญาใช้บริการหุ่นยนต์ที่จำลองชีวิตของตัวเองหลังจากที่ตายไปแล้ว และจ่ายค่าสมัครสมาชิก 20 ปี โดยหวังว่าจะปลอบใจเด็กที่โตแล้วและปล่อยให้หลานๆ ของพวกเขาได้ รู้จักพวกเขา
หลังจากการเสียชีวิต บริการดังกล่าวก็เริ่มต้นขึ้น เด็กที่เป็นผู้ใหญ่หนึ่งคนไม่ได้มีส่วนร่วม และได้รับอีเมลจำนวนมากด้วยเสียงของพ่อแม่ที่เสียชีวิตไปแล้ว ซึ่งได้สร้างความเหนื่อยล้าทางอารมณ์และความรู้สึกผิด แต่การระงับ deadbot จะเป็นการละเมิดเงื่อนไขของสัญญาที่ผู้ปกครองลงนามกับบริษัทผู้ให้บริการ
“เป็นสิ่งสำคัญที่บริการชีวิตหลังความตายแบบดิจิทัลจะต้องคำนึงถึงสิทธิ์และความยินยอม ไม่ใช่แค่ของคนที่ทำสัญญาเท่านั้น แต่ยังรวมถึงผู้ที่จะต้องมีปฏิสัมพันธ์กับสถานการณ์จำลองด้วย” Hollanek กล่าว
“บริการเหล่านี้มีความเสี่ยงที่จะสร้างความเดือดร้อนอย่างมากให้กับผู้คน หากพวกเขาถูกหลอกหลอนทางดิจิทัลที่ไม่พึงประสงค์จากการจำลอง AI ที่แม่นยำอย่างน่าตกใจของผู้ที่พวกเขาสูญเสียไป ผลกระทบทางจิตวิทยาที่อาจเกิดขึ้น โดยเฉพาะอย่างยิ่งในช่วงเวลาที่ยากลำบากอยู่แล้ว อาจสร้างความเสียหายร้ายแรงได้”
นักวิจัยเรียกร้องให้ทีมออกแบบจัดลำดับความสำคัญของโปรโตคอลการเลือกไม่รับที่อนุญาตให้ผู้ใช้ยุติความสัมพันธ์กับบ็อตแบบปิดทางอารมณ์
Nowaczyk-Basińska เพิ่มว่า “เราต้องเริ่มคิดตั้งแต่ตอนนี้ว่าเราลดความเสี่ยงทางสังคมและจิตวิทยาของความเป็นอมตะทางดิจิทัลได้อย่างไร เนื่องจากเทคโนโลยีมาถึงแล้ว”