
แม้ว่าการค้นหาข้อมูลต่าง ๆ จาก Google จะทำได้ง่ายขึ้นด้วยฟีเจอร์ ‘AI Overviews’ ที่เป็นการรวบรวมข้อมูลจากเว็บไซต์ต่าง ๆ มาสรุปให้เรา โดยที่ไม่ต้องคลิกเข้าเว็บไปค้นหาเอง ล่าสุดมีผลทดสอบที่น่าตกใจ ระบุว่าฟีเจอร์ดังกล่าวมีความแม่นยำอยู่ราว 90% เท่านั้น และผิดพลาดถึง 10% แม้จะดูไม่มาก แต่เมื่อคำนวณกับจำนวนผู้ใช้ต่อวันแล้ว กลับกลายเป็นตัวเลขมหาศาล…
ปัจจุบัน search engine ส่วนใหญ่ เริ่มนำฟีเจอร์สรุปคำตอบด้วย AI มาใช้เป็นค่าเริ่มต้น ซึ่งก่อให้เกิดประเด็นทั้งความแม่นยำของคำตอบ และ traffic ที่หายไปจากการเข้าเว็บไซต์ต้นทาง ซึ่งแม้ผลทดสอบจะระบุว่า AI Overviews ให้คำตอบที่ถูกต้องเป็นส่วนใหญ่ แต่ในหนึ่งวันมีการค้นหาจำนวนมหาศาล ทำให้เกิดคำตอบที่ผิดพลาดเป็นจำนวนมากอยู่ดี
จากรายงานของ The New York Times ระบุว่า ประมาณ 1 ใน 10 ของคำตอบจากฟีเจอร์ AI Overviews มีข้อมูลที่ผิดพลาด โดย Google มีการค้นหาประมาณ 5 ล้านล้านครั้งต่อปี ซึ่งอาจทำให้เกิดคำตอบผิดมากกว่า “57 ล้านครั้งต่อชั่วโมง” หรือเกือบ “1 ล้านครั้งต่อนาที“
ตัวเลขดังกล่าวมาจากการวิเคราะห์โดยสตาร์ตอัป AI ‘Oumi’ เพื่อประเมินความแม่นยำของ Gemini โดยใช้ชุดทดสอบ SimpleQA ซึ่งเป็น benchmark สำหรับ AI ทั่วไป จากการวิเคราะห์ด้วย Google searches 4,326 ครั้ง พบว่า AI อย่าง Gemini เวอร์ชัน 2 มีความแม่นยำที่ 85% ในเดือนตุลาคม 2025 และเพิ่มเป็น 91% ในเวอร์ชัน 3 ภายในกุมภาพันธ์ปีนี้
อย่างไรก็ตาม การประเมินของ Oumi เองก็ยังมีข้อจำกัด เพราะต้องใช้ AI วิเคราะห์ผลจำนวนมาก ซึ่งอาจก่อให้เกิดความผิดพลาดซ้ำซ้อนได้ อีกทั้ง Google ยังอาจแสดงคำตอบ AI ที่แตกต่างกันสำหรับคำค้นเดียวกัน แม้จะค้นหาซ้ำในเวลาใกล้เคียงกันก็ตาม
ในขณะที่โฆษกของ Google ออกมาโต้แย้งประเด็นดังกล่าว ว่าการทดสอบมีข้อบกพร่อง และไม่สามารถสะท้อนพฤติกรรมการค้นหาจริงได้ ซึ่งผลทดสอบภายในของบริษัทเองระบุว่า Gemini 3 เมื่อทำงานแยกจากระบบค้นหา มีอัตราการหลอนข้อมูล (hallucination) อยู่ที่ 28%
กับอีกหนึ่งปัญหาคือ ‘แหล่งอ้างอิงข้อมูล’ แม้ว่า Google จะพยายามใส่ลิงก์แหล่งอ้างอิงให้คำตอบจาก AI ดูน่าเชื่อถือ แต่ปัญหาก็คือลิงก์พวกนั้นมักไม่ได้ยืนยันสิ่งที่ AI ให้คำตอบว่าเป็นความจริง… บางครั้ง AI ตอบพลาด แต่แนบลิงก์ที่มีข้อมูลถูกต้อง กลับกันคำตอบที่ถูกก็มาจากลิงก์แหล่งข้อมูลที่ผิด หรืออาจไม่เกี่ยวข้องกันเลยก็ได้
โดยหลังอัปเดตเดือนกุมภาพันธ์ พบว่าความไม่สอดคล้องระหว่างคำตอบ AI และแหล่งข้อมูลกลับเพิ่มขึ้นสูงจาก 37% (Gemini 2) เป็น 56% (Gemini 3) เลยทีเดียว
นักวิจัยยังพบว่า AI Overviews สามารถถูก “ปั่นข้อมูล” ได้ ยกตัวอย่าง กรณีนักข่าวจาก BBC ได้โพสต์บทความที่มีข้อมูลผิดพลาด ภายหลังพบว่า Google นำข้อมูลนั้นไปแสดงเป็นคำตอบในวันถัดมา
ด้านบริษัท AI หลายแห่งรวมถึง Google เอง ยอมรับว่าเทคโนโลยี AI ยังมีข้อจำกัดด้านความถูกต้องอยู่ ยกตัวอย่าง เช่น Microsoft ระบุว่า Copilot ถูกออกแบบมาเพื่อความบันเทิงในเงื่อนไขการใช้งาน และไม่ควรใช้ในการตัดสินใจที่สำคัญ หรือ Google เองก็แนะนำให้ผู้ใช้ตรวจสอบข้อมูลซ้ำเช่นกัน ซึ่งเกิดมาจากการหลอนข้อมูลของตัว AI เอง
ที่มา: Techspot





