Apple เผยงานวิจัย โมเดล AI ยังไม่สามารถตอบคำถามที่มีความซับซ้อนได้ดีพอ

THE SUMMARY:

หากใครกำลังเก็งว่า AGI หรือ artificial general intelligence ปัญญาประดิษฐ์ที่มีความสามารถในการคิดเท่ามนุษย์จะเกิดขึ้นในปีหน้านั้น ดูเหมือนว่าจะยังไม่ถึงเวลาเสียทีเดียว

นักวิจัยของ Apple ได้ทำการวิจัยพบว่าความสามารถในการคิดของโมเดล AI แบบ LRM (Large Resoning Model) จะเริ่มสะดุดเมื่อเจอคำถามที่มีความซับซ้อนมากขึ้นกว่าเดิม ซึ่ง Apple ได้ตีพิมพ์งานวิจัยออกมาในชื่อหัวข้อว่า “The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity,” ที่บ่งบอกว่าความสามารถด้านสติปัญญาของโมเดล ​AI ยังจำกัดอยู่

โมเดล LRM ถูกใช้อยู่ในเครื่องมือ AI หลาย ๆ ตัวในปัจจุบัน อย่าง o1/o3 ของ OpenAI, DeepSeek-R1, Sonnet Thinking ของ Claude 3.7 และ Gemini Thinking โดยคระวิจัยได้ทดสอบประสิทธิภาพของโมเดลผ่านแบบทดสอบปริศนาต่าง ๆ รวมถึง Tower of Hanoi ซึ่งทำให้นักวิจัยสามารถควบคุมความยาก/ซับซ้อนได้

จากการทดสอบพบว่าโมเดล LRM จะประมวลผลได้ดีสำหรับโจทย์ในระดับง่ายถึงปานกลาง แต่เมื่อตัวแปรความซับซ้อน (complexity) สูงขึ้น ประสิทธิภาพของ LRM จะลดลงจนเหลือศูนย์เมื่อความซับซ้อนสูงเกินไป ในแง่ของปัญหาง่าย ๆ พบว่า LLM ทำได้ดีกว่า LRM เนื่องจาก LRM จะสามารถแก้โจทย์ได้ตั้งแต่แรก ๆ แต่ยังคงหาคำตอบอื่นต่อไปซึ่งไม่จำเป็น

งานวิจัยนี้ได้ข้อสรุปว่าหาก AI ต้องแก้โจทย์ที่ระดับง่าย-กลางก็ถือว่ายังทำได้ดี แต่หากเป็นโจทย์ที่ยาก ตัวโมเดล AI จะเริ่มมั่วทันที ซึ่งยังเป็นข้อจำกัดที่ต้องได้รับการพัฒนาต่อไป

ที่มา The Register

Advertisement

Sidebar Search
Popular Now
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...