
หลายคนเริ่มใช้ AI เป็นแหล่งข่าวมากขึ้น แต่ปัญหาคือ ข้อมูลที่นั้นถูกต้องแม่นยำแค่ไหน ล่าสุดมีผลทดสอบพบว่า AI มีปัญหาเรื่องความถูกต้อง แถมสร้างสำนักข่าวปลอมและเผยแพร่ข้อมูลที่ผิด
ทาง The Conversation เปิดเผยงานวิจัยที่นำโดยศาสตราจารย์ด้านวารสารศาสตร์ที่มีความเชี่ยวชาญด้านวิทยาการคอมพิวเตอร์ ทำการทดสอบ Generative AI จำนวน 7 แพลตฟอร์มเป็นเวลาติดต่อกัน 4 สัปดาห์ ประกอบด้วย Google Gemini, OpenAI ChatGPT, Claude, Copilot, Grok, DeepSeek และ Aria
ในแต่ละวันจะทดสอบด้วยการขอให้ AI คัดเลือกและสรุปข่าวสำคัญที่สุด 5 เหตุการณ์ในรัฐควิเบก พร้อมจัดลำดับความสำคัญ และแนบลิงก์บทความต้นทางเป็นแหล่งอ้างอิง ตลอดการทดลองนั้นได้รวบรวมคำตอบจาก AI ทั้งหมด 839 ชิ้น ผลพบว่าหลายแพลตฟอร์ม AI อ้างอิงแหล่งข่าวที่ไม่มีอยู่จริง ให้ลิงก์ที่เปิดไม่ได้ หรือบิดเบือนเนื้อหาจากรายงานข่าว

หนึ่งในเคสที่สะท้อนปัญหาได้ชัดเจนที่สุดคือ Gemini สร้างสำนักข่าวปลอมชื่อ examplefictif.ca ขึ้นมา และรายงานข่าวเท็จเกี่ยวกับการนัดหยุดงานของคนขับรถโรงเรียนในควิเบกเมื่อเดือนกันยายน 2025 ทั้งที่ในความจริง เหตุการณ์ดังกล่าวเกิดจากการถอนการให้บริการรถบัสของบริษัท Lion Electric เนื่องจากปัญหาทางเทคนิค ไม่ใช่การประท้วงแต่อย่างใด
ข้อผิดพลาดของ AI ไม่ได้จำกัดอยู่เพียงการแต่งข่าวเท่านั้น บางระบบบิดเบือนเหตุการณ์จริง เช่น รายงานคลาดเคลื่อนเกี่ยวกับการปฏิบัติต่อผู้ลี้ภัย หรือระบุผู้ชนะการแข่งขันกีฬารายการสำคัญผิดพลาด ขณะที่บางเคสก็เป็นข้อมูลพื้นฐานผิดพลาดพื้นฐาน
ภาพรวมของปัญหาเหล่านี้สะท้อนว่า Gen AI ยังไม่สามารถแยกแยะได้อย่างชัดเจนระหว่างการสรุปข่าวกับการสร้างบริบทหรือเพิ่มเติมความหมายขึ้นมาเอง
ประเด็นนี้ยิ่งทวีความสำคัญขึ้น เนื่องจากผู้คนหันมาใช้แชตบอต AI เป็นแหล่งรับข่าวสารมากขึ้น จากรายงาน Digital News Report ของสถาบัน Reuters ระบุว่า ในปี 2024 ชาวแคนาดาราว 6% ใช้ AI เชิงกำเนิดเป็นแหล่งข่าว เมื่อเครื่องมือเหล่านี้สร้างข้อมูลเท็จ บิดเบือนข้อเท็จจริง หรือสรุปเกินจากต้นทาง ทำให้เพิ่มความเสี่ยงในการเผยแพร่ข้อมูลที่ผิดพลาด โดยเฉพาะการขาดคำอธิบายหรือคำเตือนที่ชัดเจน

สำหรับผลกระทบเกิดขึ้นกับผู้ใช้พบว่าเพียง 37% ของคำตอบทั้งหมดมีลิงก์แหล่งข่าวที่ครบถ้วนและตรวจสอบได้ แต่บทสรุปที่ถูกต้องทั้งหมดมีไม่ถึงครึ่ง หลายเคสข้อมูลถูกต้องเพียงบางส่วนหรือมีความคลาดเคลื่อนที่ทำให้เข้าใจผิดได้
นอกจากนี้ AI บางระบบยังเพิ่ม “ข้อสรุปที่สร้างขึ้นเอง” โดยไม่มีหลักฐานรองรับทั้งที่ไม่ปรากฏในรายงานของสื่อจริง
ข้อกังวลที่ The Conversation นำเสนอสอดคล้องกับการประเมินในระดับอุตสาหกรรมที่กว้างขึ้น โดยรายงานล่าสุดจากองค์กรสื่อบริการสาธารณะ 22 แห่ง ระบุว่า เกือบครึ่งหนึ่งของคำตอบข่าวที่สร้างโดย AI มีปัญหา ตั้งแต่การอ้างอิงแหล่งที่มาไปจนถึงความคลาดเคลื่อนของเนื้อหา
ผลการศึกษานี้จึงเป็นสัญญาณเตือนชัดเจนว่า AI ควรถูกใช้เป็นเพียงจุดเริ่มต้นในการค้นหาข้อมูลข่าวสาร ไม่ใช่แหล่งอ้างอิงที่เชื่อถือได้ทั้งหมด
ที่มา digitaltrends





