OpenAI ได้เผยแพร่ผลงานวิจัยใหม่ในหัวข้อ “Why language models hallucinate” โดยงานวิจัยนี้ให้นิยามคำว่า “hallucinations” ของโมเดลภาษาขนาดใหญ่หรือ LLM เป็นอาการหลอนหรือให้คำตอบที่ผิด โดยที่ AI ยังแสดงความมั่นใจว่าได้ให้ข้อมูลเหล่านั้นอย่างถูกต้อง สาเหตุที่ AI มีอาการ hallucination ออกมาเนื่องจากวิธีการเทรนและการวัดผลที่มุ่งเน้นผลลัพธ์ที่ถูกต้องที่สุด โดยไม่ให้ความสำคัญกับการรู้จักหรือยอมรับว่าไม่มั่นใจในตำจอบหรือข้อมูล เมื่อโมเดลเจอคำถามหรือคำสั่งที่ไม่แน่ใจจึงใช้วิธีเดาไปก่อน เหมือนกับการที่นักเรียนเดาตอบของข้อสอบทั้ง ๆ ที่การเลือกไม่ตอบอาจเป็นการแสดงความซื่อสัตย์และความระมัดระวัง แน่นอนว่าการเลือกไม่ตอบจะทำให้คะแนนท่ีได้เป็นศูนย์ แต่หากเดาถูกโมเดลจะได้คะแนน เมื่อทำแบบนี้ หากโมเดลเดาถูกจะทำให้คะแนนที่ออกมาดูดี แต่ก็เป็นการทำให้โมเดลเรียนรู้และเลือกที่จะเดาแม้ว่าจะไม่มีข้อมูลซัปพอร์ตที่ดีพอ งานวิจัยยังชี้ว่า











![[บทความ] Buy Now, Pay Later ซื้อก่อนจ่ายทีหลัง ใช้ไม่ถูกอาจกลายเป็นวิกฤตการเงินได้](https://ceei.co/wp-content/uploads/2025/09/buy-now-pay-later-1024x640.png)






























