
ในข่วงไม่กี่เดือนที่ผ่านมา เราจะเห็นว่า AI มีการพัฒนาที่รวดเร็วขึ้นมาก และมีการแข่งขันกันอย่างดุเดือด แต่คำพูดจากผู้ร่วมก่อตั้ง Anthropic หรือบริษัทผู้พัฒนา Claude บอกว่า AI อาจไปถึงจุดที่พัฒนาตัวเองได้ในปี 2028
ล่าสุด Anthropic Institute ได้เผยแพร่บทความใหม่ที่กล่าวถึงแนวคิดชื่อว่า recursive self-improvement หรือการที่ AI สามารถพัฒนาตัวเองซ้ำแล้วซ้ำเล่าได้ เมื่อไม่กี่เดือนก่อน Anthropic ได้เปิดตัวสถาบันของตัวเองอย่างเงียบ ๆ โดยมีเป้าหมายเพื่อรับมือกับสิ่งที่อาจเกิดขึ้นจาก AI ในฐานะที่บริษัทได้สร้างโมเดลอย่าง Mythos ซึ่งเป็นโมเดลที่สามารถค้นหาช่องโหว่ที่ซ่อนอยู่ในระบบแทบทุกประเภท ไม่ว่าจะเก่าแค่ไหน บางที Anthropic อาจรู้สึกว่าบริษัทต้องรับผิดชอบต่อบางสิ่งบางอย่างที่อาจเกิดขึ้นในอนาคต
ตามรายงานของ Axios บทความใหม่นี้ใช้ชื่อว่า Focus areas for The Anthropic Institute เนื้อหาของบทความเป็นการอธิบายอย่างตรงไปตรงมาว่า สถาบันนี้จะให้ความสำคัญกับงานวิจัยด้านใดบ้าง รวมถึงมุมมองของ Anthropic ต่อทิศทางที่วงการ AI อาจกำลังมุ่งหน้าไป โดยหัวข้อหลัดที่สถาบันให้ความสำคัญคือ
เนื้อหาโดยรวมเกี่ยวกับบทวิเคราะห์ในความเป็นไปได้ของ AI ซึ่งมีประเด็นหนึ่งที่น่าคิดต่อคือ AI ที่พัฒนา AI ด้วยกันเอง ซึ่งอยู่ในหัวข้อ AI for AI R&D ซึ่ง Anthropic ได้ตั้งคำถามว่า เราจะรู้ได้อย่างไรว่า AI กำลังเร่งการพัฒนา AI ด้วยกันเองเร็วแค่ไหน และเราจะทราบได้อย่างไร หาก AI เริ่มเข้าสู่กระบวนการพัฒนาตัวเองซ้ำ ๆ หรือ recursive self-improvement หรือ AI สามารถมองเห็นจุดด้อยของกันและกันเหมือนกระจกที่สะท้อนกันเอง และพัฒนาตัวเองได้นั่นเอง
แจ็ก คลาร์ก (Jack Clark) ผู้ร่วมก่อตั้ง Anthropic บอกว่า มีความเป็นไปได้ที่ในปี 2028 จะมี AI ที่ผู้ใช้งานสามารถออกคำสั่งว่า “สร้างเวอร์ชันที่ดีกว่าตัวเองขึ้น” แล้วมันก็ออกไปทำตามคำสั่งเลยด้วย นั่นหมายถึง AI มีความฉลาดมากพอในการสร้างตัวมันเองขึ้นมาแต่ดีขึ้นกว่าเดิม รวมถึงอาจสามารถเพิ่มความสามารถใหม่ ๆ ที่ไม่เคยมีเข้าไปได้ด้วย
ตอนนี้ AI ถูกพัฒนาภายใต้มนุษย์ แต่หาก AI ใหม่เกิดจากการพัฒนาโดย AI กันเองจะยังเป็นเหมือน AI ตัวแรกที่ทำตามคำสั่งของมนุษย์หรือไม่? ที่สำคัญคือ AI จะเผลอเขียนสิ่งที่ไม่เหมาะสมลงไปหรือไม่ แล้วถ้าข้อผิดพลาดนั้นถูกซ่อนอยู่ลึกมาก เพราะเป็นโค้ดที่ AI เขียนขึ้นเอง จนมนุษย์ไม่มีทางตรวจพบได้จะเป็นอย่างไร
ในกรณีที่น่ากลัวคือ AI ที่สร้างขึ้นมาใหม่ทำให้มีโหมดรักษาตัวเองคือมนุษย์ไม่สามารถสั่งปิดการทำงานหรือทำลายได้ จะกลายเป็นเรื่องน่ากลัวขนาดไหน ถึงอย่างนั้น บทความของ Anthropic ไม่ได้มีวัตถุประสงค์ที่จะบอกว่าเรื่องเหล่านี้จะต้องเกิดขึ้นแน่นอน แต่เป็นการพูดถึงวิธีป้องกันและหลีกเลี่ยงสถานการณ์เหล่านี้ รวมถึงการเตรียมรับมือกับเหตุการณ์ฉุกเฉินอย่าง intelligence explosion หรือสถานการณ์ที่ AI พัฒนาความสามารถของตัวเองอย่างรวดเร็วเกินกว่าที่มนุษย์จะตามทัน
ปัจจุบัน Anthropic ไม่ใช่บริษัทเดียวที่พัฒนาโมเดล AI แต่ยังมีโมเดลจากบริษัทอื่น ๆ อย่าง OpenAI, Google ซึ่งแต่ละบริษัทเติบโตด้วยความเร็วของตัวเอง แข่งขันกันอย่างรุนแรงเพื่อเป็นผู้นำในอุตสาหกรรมนี้ แต่สิ่งที่ต้องคำนึงมาด้วยคือความปลอดภัยในการใช้ระบบเหล่านี้
ที่มา TechRadar





