นักวิจัยเตือนอย่าใช้ AI ตั้งรหัสผ่าน เพราะโมเดลภาษาขนาดใหญ่ (LLM) มักใช้รูปแบบคำซ้ำ ๆ กลายเป็นจุดอ่อนที่ทำให้โดนเจาะได้ง่ายขึ้น Irregular บริษัทความปลอดภัยไซเบอร์ เผยงานวิจัยพบว่าการใช้ LLM สร้างรหัสผ่านก็มีความเสี่ยง แม้จะได้รหัสผ่านที่ดูซับซ้อนและแข็งแกร่ง แต่จริง ๆ แล้วไม่ปลอดภัย และสามารถคาดเดาได้ง่ายกว่าที่คิด ในการทดสอบ นักวิจัยให้โมเดลยอดนิยมอย่าง Claude, ChatGPT และ Gemini สร้างรหัสผ่านความยาว 16 ตัวอักษร ซึ่งประกอบด้วยตัวพิมพ์เล็ก-ใหญ่ ตัวเลข และอักขระพิเศษ







































