รายงานจาก The Guardian ชี้ให้เห็นว่า AI ในปัจจุบันไม่ได้ “เชื่อฟัง” หรือ “เข้าใจ” คำสั่งได้อย่างที่มนุษย์คิดเสมอไป ถึงแม้อธิบายชัดแค่ไหน แต่ก็มีโอกาสตีความผิด หรือให้คำตอบที่ออกนอกเรื่องได้ หลายคนเคยเจอสถานการณ์ที่เวลาคุยกับแชตบอต AI แล้วอยู่ดีๆ มันก็ “หลุดประเด็น” จากเรื่องที่ถามอยู่ กลับได้คำตอบที่ไม่เกี่ยว หรือบางครั้งก็เป็นข้อมูลที่ดูมั่นใจแต่ไม่สมเหตุสมผลเลย จนทำให้ทั้งสับสนและหงุดหงิด ยกตัวอย่างเช่น ผู้ใช้บางคนขอให้ Grok AI บนแพลตฟอร์ม X ช่วยอธิบายโพสต์ แม้บางครั้งจะตอบได้ถูกต้อง








































