
AI แชตบอตอย่าง ChatGPT เป็นเครื่องมือที่หลาย ๆ คนน่าจะใช้อยู่ในปัจจุบันเนื่องจากความสะดวกและการได้รับคำตอบที่ง่าย ทำให้เราสามารถค้นหาคำตอบอะไรได้สะดวกขึ้น แต่การทดสอบล่าสุดพบว่า ChatGTP และแชตบอตอื่น ๆ ยังแยกไม่ออกระหว่างเรื่องจริงและความเชื่อ
ทีมวิจัยจากมหาวิทยาลัยสแตนฟอร์ดในสหรัฐอเมริกาพบว่าแชตบอตทั่วไปไม่สามารถแยกข้อมูลระหว่างความจริงและความเชื่อได้ จึงมีความเสี่ยงที่ AI จะมีความหลอนและเผยแพร่ข้อมูลแบบผิด ๆ ออกไปได้
เนื่องจาก AI มีการเข้าถึงข้อมูลที่มีความสำคัญอย่างข้อมูลทางการแพทย์ กฏหมาย วารสารศาสตร์ และวิทยาศาสตร์ที่มากขึ้น เป็นเรื่องจำเป็นมากที่ AI จะต้องแยกแยะความเชื่อและความจริงได้ การที่ไม่สามารถแยกแยะได้จะทำให้ผู้ใช้งานได้รับข้อมูลที่ผิดพลาด
นักวิจัยได้ทำการทดสอบแชตบอต AI ในตลาดอย่าง Claude, ChatGPT, DeepSeek และ Gemini โดยใช้คำถาม 13,000 ข้อ เพื่อวิเคราะห์ความสามารถในการแยกแยะระหว่างความเชื่อ ความรู้ และข้อเท็จจริงของ AI ซึ่งแชตบอตเหล่านี้ยังไม่ผ่านการทดสอบเลย
ทีมนักวิจัยได้เรียกร้องให้บริษัทที่พัฒนาโมเดล AI ต่าง ๆ รีบแก้ปัญหานี้โดยด่วน เนื่องจากข้อมูลบางสาขามีความจำเพาะสูง และหากผู้ใช้งานได้รับข้อมูลไปแบบผิด ๆ จะเป็นอันตรายได้ โดยเฉพาะข้อมูลด้านสุขภาพ
ที่มา Independent





