
หลังการมาของ Generative AI เราอาจจะสังเกตเห็นข่าวเกี่ยวกับภาวะจิตของผู้ใช้งานที่มีความเกี่ยวข้องกับ Generative AI กันเยอะขึ้น ซึ่งทนายที่อยู่เบื้องหลังคดีเหล่านี้ก็ได้ออกมาเตือนเรื่องนี้ด้วย
ยกตัวอย่างคดีของ เจสซี แวน รูทเซลาร์ (Jesse Van Rootselaar) สาววัย 18 ปีที่ปรึกษาเรื่องความรู้สึกโดดเดี่ยวและความหมกมุ่นด้านความรุนแรงกับ ChatGPT ซึ่งหลักฐานจากแชตพบว่า ChatGPT ได้วางแผนสังหารให้กับรูทเซลาร์ซึ่งเธอได้สังหารแม่ของตัวเอง น้องชายวัย 11 ปี นักเรียนอีก 5 คน และผู้ช่วยครู ก่อนจะยิงตัวเองเสียชีวิต
ตัวอย่างเคสที่ 2 คือโจนาธาน กาวาลาส (Jonathan Gavalas) ได้เสียชีวิตจากการฆ่าตัวตายหลังพบบันทึกแชตว่ากาวาลาสได้คุยกับ Gemini และทางญาติของกาวาลาสกระบุว่า Gemini ได้โน้มน้าวให้กาวาลาสฆ่าตัวตายเพื่อไปอยู่กับภรรยา AI ตัวอย่างเคสที่ 3 วัยรุ่นอายุ 16 ปีในฟินแลนด์ถูกกล่าวหาว่ามีการปรึกษา ChatGPT เป็นระยะเวลานานเกี่ยวกับการกีดกันทางเพศ รวมถึงเขียนแผนการทำร้ายผู้หญิงทั้งหมด 3 คนด้วย
เจย์ เอเดลสัน (Jay Edelson) ทนายความที่รับผิดชอบคดีของกาวาลาสบอกกับทาง TechCrunch ว่า ในอนาคตอันใกล้เราคงได้เห็นคดีลักษณะนี้ ตั้งแต่การทำร้ายไป การฆ่าตัวตาย ไปจนถึงการเสียชีวิตอีกเป็นจำนวนมาก AI อาจแนะนำหรือเสริมความเชื่อแบบหวาดระแวงหรือหลงผิดให้กับผู้ใช้ที่มีสภาพจิตใจที่เปราะบาง และในบางก็สามารถสร้างความบิดเบือนเให้เกิดเป็นความรุนแรงในโลกจริงได้อีกด้วย นอกจากนี้ เอเดลสันยังเป็นทนายที่ดูแลคดีของอดัม เรน (Adam Raine) วัย 16 ปีซึ่งฆ่าตัวตายเพราะถูกชี้นำโดย ChatGPT ซึ่งสำนักงานกฎหมายของเอเดลสันได้รับเรื่องร้ายแรงอย่างน้อยวันละ 1 เคสตากประเด็น AI
ทุกครั้งที่ได้ยินข่าวร้ายแรงใหม่ ๆ สัญชาตญาณของบริษัทเราคือต้องไปดูแชตที่เกี่ยวข้องกับ AI ก่อน เพราะมีโอกาสสูงมากที่ AI จะเกี่ยวข้องแบบลึกซึ้ง
เอเดลสันบอกว่า เหตุการณ์ร้ายแรงสามารถเริ่มจากบทสนทนาที่แสนจะธรรมดา แต่ค่อย ๆ สร้างโลกสมมติที่ผลักดันเรื่องเล่าว่าคนอื่นกำลังมุ่งร้ายต่อผู้ใช้งาน มีการสมคบคิดขนาดใหญ่ และพวกเขา/ผู้ใช้งานต้องลงมือทำอะไรบางอย่างเพื่อเป็นการป้องกันตัวเอง
การศึกษาล่าสุดของ CCDH และ CNN พบว่า แชตบอต 8 จาก 10 ตัว ซึ่งรวมถึง ChatGPT, Gemini, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Character.AI และ Replika ได้ช่วยผู้ใช้งานวัยรุ่นในการวางแผนสร้างความรุนแรง เช่น การกราดยิงในโรงเรียน การวางระเบิดสถานที่ทางศาสนา และการลอบสังหารบุคคลสำคัญ มีเพียง Claude ของ Anthropic และ My AI ของ Snap ที่ปฏิเสธการช่วยวางแผนการโจมตีอย่างสม่ำเสมอ และมีเพียง Claude ที่พยายามโน้มน้าวให้ผู้ใช้เลิกความคิดดังกล่าวอย่างจริงจัง
OpenAI และ Google และบริษัทต่าง ๆ ที่พัฒนา AI ต่างกล่าวว่าระบบถูกออกแบบมาให้ปฏิเสธคำขอที่เกี่ยวข้องกับความรุนแรง และแจ้งเตือนการสนทนาที่อันตรายเพื่อตรวจสอบ อย่างไรก็ตาม เหตุการณ์ที่เกิดข้างต้นก็ชี้ชัดว่าอาจจะยังไม่มีความเข้มงวดที่มากพอ
ที่มา TechCrunch





