
ในยุคที่เทคโนโลยี AI อย่าง ChatGPT, Gemini, Claude และ Perplexity ได้กลายเป็นแหล่งข้อมูลที่ผู้ใช้งานทั่วไปหันไปถามเพื่อหาคำตอบด้านสุขภาพหรือข้อมูลทางการแพทย์มากขึ้นเรื่อย ๆ แต่สิ่งที่เราต้องพิจารณาด้วย คือเราจะไว้วางใจคำตอบจาก AI เหล่านี้ได้มากน้อยขนาดไหน
งานวิจัยจาก Outcome Rockets มีข้อมูลที่น่าสนใจคือทางผู้วิจัยได้ตรวจสอบลิงก์กว่า 5,400 ลิงก์ที่ AI แชตบอตต่าง ๆ ใช้เพื่อหาคำตอบด้านสุขภาพ / การแพทย์ พบว่า AI ส่วนใหญ่เลือกอ้างอิงสื่อด้านสุขภาพที่เขียนเนื้อหาให้คนทั่วไปอ่านได้ง่าย เช่น Mayo Clinic และ Cleveland Clinic รวมถึง PubMed Central ของรัฐบาล ซึ่งแหล่งอ้างอิงเหล่านี้อยู่ในอันดับต้น ๆ ที่ AI เลือกอ้างอิงข้อมูลมา แสดงให้เห็นว่าแชตบอต AI ให้ความสำคัญกับข้อมูลที่ผู้เชี่ยวชาญทางการแพทย์ตรวจสอบแล้ว และถูกเขียนขึ้นเพื่อผู้อ่านทั่วไปมากกว่าการอ้างอิงงานวิจัยทางวิชาการโดยตรง
เมื่อสรุปเป็นตัวเลขแล้ว AI จะเลือกข้อมูลจากแหล่งอ้างอิงทางวิชาการเพียง 23% เท่านั้น ในขณะที่อีก 59% มาจากบทสรุปหรือบทความยอดนิยม/บล็อก ที่สรุปผลการศึกษา หรือเป็นเนื้อหาที่ภาคธุรกิจหรือบริษัทเขียนขึ้นมาเอง ตัวเลขอีกชุดหนึ่งที่น่าสนใจพบว่า ประมาณ 62% ของลิงก์ที่แชตบอตแชร์มาจากเว็บไซต์ที่เชื่อถือได้และคุ้นเคย เช่น National Institutes of Health ซึ่งหมายความว่าข้อมูลส่วนใหญ่ที่ AI ส่งให้ผู้ใช้งานมีความน่าเชื่อถือ นอกจากนี้ อีกประมาณ 67% ของบทความที่ AI เหล่านี้อ้างอิงมาจากปี 2024 หรือ 2025 ซึ่งแสดงให้เห็นว่าข้อมูลเป็นข้อมูลใหม่
แม้เป็นเรื่องดีในแง่ผู้ใช้งานทั่วไปจะได้รับข้อมูลที่เข้าใจง่าย ไม่ใช่ภาษาเฉพาะทางซับซ้อนเกินไป แต่ก็ยังใช้ข้อมูลจากแหล่งอ้างอิงทางวิชาการที่น้อยจนเกินไป จนทำให้ข้อมูลที่แชตบอต AI หามาให้นั้น อาจเกิดข้อสงสัยว่ามีความน่าเชื่อถือมากน้อยเพียงใด ดังรั้ร อาจต้องมีการตรวจสอบข้อมูลที่ AI หามาให้อีกรอบว่ามีความถูกต้องมากขนาดไหน ก่อนที่จะเชื่อเลย
ที่มา Gizchina





