Anthropic เปิดเผยรายงานถูกดูดความสามารถของ Claude AI ผ่านเทคนิค Distillation เพื่อนำไปใช้ฝึกโมเดลของตัวเองอย่างผิดกฎหมายโดยห้องปฏิบัติการ AI 3 รายใหญ่จากจีน คือ DeepSeek, Moonshot และ MiniMax กลุ่มผู้ไม่หวังดีได้สร้างบัญชีปลอมจำนวนมหาศาลถึง 24,000 บัญชีเพื่อดึงข้อมูลการตอบสนองที่ซับซ้อนของ Claude มากกว่า 16 ล้านครั้ง ไปใช้ฝึกฝนโมเดลของตนเองในราคาที่ถูกลงและรวดเร็วขึ้น “การกลั่น” (distillation) คืออะไร? “การกลั่น” (distillation) คือ การฝึกโมเดลที่มีความสามารถน้อยกว่าโดยใช้ผลลัพธ์จากโมเดลที่แข็งแกร่งกว่า ซึ่งเป็นวิธีการฝึกที่ใช้กันอย่างแพร่หลายและถูกต้องตามกฎหมาย ตัวอย่างเช่น ห้องปฏิบัติการ AI ระดับแนวหน้ามักจะกลั่นโมเดลของตนเองเพื่อสร้างเวอร์ชันที่เล็กกว่าและราคาถูกกว่าสำหรับลูกค้าของตน แต่การกลั่นก็นำไปใช้ในทางที่ผิดกฎหมายได้เช่นกัน




































