งานวิจัยล่าสุดเผย คนส่วนใหญ่แยกระหว่าง GPT-4.5 กับคนจริงไม่ออก (โดยเฉพาะเมื่อกำหนดบทบาทให้)

ผลการทดลองจากห้องปฏิบัติการด้านภาษาและการรับรู้ของมหาวิทยาลัย UC San Diego ออกมาบอกว่า ผู้คนส่วนใหญ่ไม่สามารถแยกได้ว่าแชตบอตที่กำลังคุยอยู่คือมนุษย์ หรือ AI โดยเฉพาะ GPT-4.5 ที่สามารถหลอกผู้เข้าร่วมการทดลองได้มากกว่ามนุษย์จริง

การทดลองครั้งนี้ใช้การทดสอบ ‘Turing Test’ (การทดสอบเครื่องจักรว่ามีความสามารถในการคิดได้เช่นเดียวกับมนุษย์หรือไม่) รูปแบบใหม่ ที่ให้อาสาสมัครกว่า 300 คน พูดคุยกับคู่สนทนา 2 แบบ โดยแบบหนึ่งเป็นมนุษย์ และอีกแบบเป็น AI Chatbot โดยไม่บอกว่าฝั่งไหนคืออะไร และให้ผู้เข้าร่วมตัดสินใจว่าฝั่งไหนคือมนุษย์กันแน่ ผลการทดลองพบว่า GPT-4.5 สามารถปลอมตัวเป็นคน ได้สำเร็จถึง 73% (ซึ่งเกิน 50% และแปลว่าผ่านการทดสอบ Turing Test) โดยเฉพาะเมื่อ ChatGPT 4.5 ได้รับบทบาท เช่น วัยรุ่นที่รู้เรื่อง Pop Culture เป็นต้น

ในทางกลับกัน ฝั่งมนุษย์ที่เป็นคนตอบคำถาม กลับโน้มน้าวใจผู้ร่วมทดลองได้น้อยกว่า แต่ว่า ถ้าไม่ได้กำหนดบุคลิกให้กับ Chatbot ผลลัพธ์ที่ได้กลับแย่ลงทันที เช่น GPT-4.5 ลดเหลือแค่ 36% ส่วน GPT-4o ได้แค่ 21% ขณะที่ ‘ELIZA’ แชตบอตยุคแรก ก็ยังคงมีข้อจำกัดในการสนทนาอยู่

แม้การผ่าน Turing Test จะไม่ใช่หลักฐานว่า AI เข้าใจเหมือนมนุษย์ แต่สิ่งที่น่ากังวลคือ ผลการทดลองแสดงให้เห็นว่า AI สามารถเลียนแบบการพูดคุยของมนุษย์ได้ดีขึ้นเรื่อย ๆ โดยเฉพาะในบทสนทนาสั้น ๆ ที่ไม่ต้องอาศัยเหตุผลลึกซึ้งนัก ซึ่งอาจทำให้คนทั่วไปแยกไม่ออกว่าใครเป็นใครในโลกออนไลน์ในอนาคต

และแม้ความสามารถแบบนี้ของ AI จะน่าสนใจ แต่ก็อาจนำไปสู่ประเด็นอื่น ๆ ได้ เช่น การหลอกลวง การปลอมตัว หรือการเผยแพร่ข้อมูลผิด ๆ ซึ่งจะกลายเป็นประเด็นทางศีลธรรม และจริยธรรมต่อไปในอนาคตแน่นอน

ที่มา : BGR

นักเขียนตัวเล็กๆ (?) ที่โตมากับไขควงและเมนบอร์ด เพราะโดนเกณฑ์เป็นลูกมือช่างซ่อมคอม (ที่เรียกว่าพ่อ) มาตั้งแต่เด็ก ๆ โตมาเลยมาเอาดีเรื่องเทคฯแทน ชอบตามข่าวเทคฯ ใหม่ ๆ ลอง Gadget แปลก ๆ ไม่ว่าจะเป็นสมาร์ตโฟน หูฟัง คอมพิวเตอร์ แล้วเอามาเล่าให้ฟังกัน

Advertisement

Sidebar Search
Popular Now
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...