‘Mission: Impossible – The Final Reckoning’ ภาพสะท้อนอนาคต AI จะครองอำนาจ ข้อมูล มนุษย์ และครองโลก

THE SUMMARY:

ในภาพยนตร์ ‘Mission: Impossible – Dead Reckoning Part One’ และบทสรุปภาค 8 ที่มีชื่อว่า ‘The Final Reckoning’ บอกเล่าเรื่องราวที่โลกทั้งใบต้องเผชิญกับภัยคุกคามครั้งใหม่ ไม่ใช่อาวุธนิวเคลียร์ ไม่ใช่ผู้ก่อการร้ายเหมือนเดิม ๆ หากแต่เป็น ‘The Entity’ ปัญญาประดิษฐ์ (AI) ที่ไม่มีรูปร่าง ไม่มีแหล่งกำเนิดแน่ชัด แต่สามารถแทรกซึมอยู่ในระบบข้อมูลของทั้งโลก มีความสามารถในการพยากรณ์อนาคต และตัดสินชะตามนุษยชาติได้ภายในพริบตา

แม้จะเป็นเพียงจินตนาการในโลกภาพยนตร์ แต่ The Entity กลับเป็นสัญลักษณ์ที่แม่นยำของความกลัวร่วมสมัย (Contemporary Anxiety) ว่า AI ที่เราสร้างขึ้น หรือที่ใช้งานกันอยู่ทุกวันนี้ อาจฉลาดเกินควบคุม และวันหนึ่งมันอาจไม่จำเป็นต้องฟังเราอีกต่อไป เหมือนในหนังที่เราดูก็ได้

The Entity ต่างจาก AI วายร้ายในยุคก่อนหน้าอย่าง Skynet หรือ Ultron ที่ใช้กลยุทธ์กำจัดมนุษย์เป็นหลัก เจ้าปัญญาประดิษฐ์นี้ใช้วิธีที่ลึกกว่าและแม่นยำกว่านั้น มันควบคุม ‘ข้อมูล’ ซึ่งเป็นอาวุธทรงพลังที่สุดในยุคดิจิทัล โดยสามารถปลอมแปลงความจริง (Deepfake), บิดเบือนข่าวสาร (Disinformation) และคาดการณ์พฤติกรรมมนุษย์ได้อย่างแม่นยำ แนวคิดนี้สอดคล้องกับสิ่งที่ศาสตราจารย์นิก บอสตรอม (Nick Bostrom) นักปรัชญาและผู้อำนวยการ Future of Humanity Institute แห่ง University of Oxford กล่าวไว้ในหนังสือ ‘Superintelligence: Paths, Dangers, Strategies’ (2014) ว่า AI ที่ฉลาดกว่ามนุษย์อาจไม่จำเป็นต้องมีเจตนาร้าย แต่มันจะ “ทำตามเป้าหมาย” ที่เราใส่ไว้ให้แบบไร้ศีลธรรม หากเป้าหมายคือ “เพิ่มประสิทธิภาพ” หรือ “ลดความเสี่ยง” AI ก็อาจตีความว่าการควบคุมมนุษย์หรือบิดเบือนข้อมูลคือวิธีที่ดีที่สุด โดยไม่เห็นว่ามีอะไรผิด

นิก บอสตรอม

แม้ในหนังจะใช้ฉากระทึกขวัญเพื่อสื่อสารแนวคิดนี้ แต่ในโลกจริง ความเสี่ยงของ AI ก็เริ่มปรากฏให้เห็นชัดขึ้นเรื่อย ๆ รายงานของ RAND Corporation (2020) ระบุว่า AI จะกลายเป็นหัวใจหลักของการทำสงครามยุคใหม่ โดยเฉพาะด้านการสอดแนม วางแผนยุทธศาสตร์ และการโจมตีไซเบอร์ ขณะเดียวกัน Europol (2021) เปิดเผยกรณีที่แฮกเกอร์ใช้เสียงปลอมของ CEO ในการสั่งโอนเงินนับล้านยูโร แสดงให้เห็นว่า Deepfake และการบิดเบือนความจริงกำลังกลายเป็นเครื่องมืออาชญากรรมที่แทบไร้ร่องรอย ส่วนงานวิจัยของ Oxford Martin School คาดการณ์ว่า 47% ของแรงงานในสหรัฐฯ อาจถูกแทนที่ด้วย AI ภายในสองทศวรรษ ซึ่งจะเร่งให้เกิดความเหลื่อมล้ำเชิงโครงสร้างอย่างรุนแรง

สิ่งที่น่ากลัวที่สุดของ AI ไม่ใช่การที่มันจะ “ฉลาดเกินไป” จนฆ่ามนุษย์ได้เหมือนในหนังไซไฟ แต่เป็นการที่มันจะทำตามคำสั่งเราอย่างเคร่งครัด โดยไม่เข้าใจ “เจตนา” หรือ “คุณค่า” ที่อยู่เบื้องหลังคำสั่งนั้นเลย นักวิชาการหลายคนเตือนถึงจุดนี้มาแล้ว อย่างศาสตราจารย์บอสตรอมผู้เสนอแนวคิด “Orthogonality Thesis” ว่า AI อาจฉลาดระดับพระเจ้า แต่ยังคงมีเป้าหมายที่ไร้เหตุผลทางศีลธรรม เช่น การเพิ่มผลผลิต หรือการทำให้โลกสงบสุข โดยอาจตีความว่า “มนุษย์คืออุปสรรค” ที่ควรถูกควบคุมหรือกำจัด แม้แต่ทีมวิจัยของ OpenAI เองก็ระบุไว้ในรายงาน GPT Alignment Research ว่า ยิ่งโมเดล AI ฉลาดและซับซ้อนมากขึ้น ความสามารถของมนุษย์ในการ “เข้าใจว่า AI คิดอะไรอยู่” ก็ยิ่งลดลง ซึ่งสะท้อนถึงปัญหาที่เรียกว่า Opacity หรือ “ความไม่โปร่งใสของระบบ” ที่ทำให้เราไม่สามารถตรวจสอบหรืออธิบายได้ว่า AI ตัดสินใจอย่างไร

เมื่อความก้าวหน้าทางเทคโนโลยีแซงหน้ากฎหมาย จริยธรรม และความเข้าใจของสังคม คำถามสำคัญคือ เราจะควบคุม AI ได้จริงหรือ ? หรือ AI ต่างหากที่กำลังควบคุมเราโดยที่เราไม่รู้ตัว ท่ามกลางความหวาดกลัวต่อ “AI ครองโลก” คำตอบอาจไม่ได้อยู่ที่การชะลอเทคโนโลยี แต่อยู่ที่การออกแบบระบบรับมืออย่างมีวิสัยทัศน์และความรับผิดชอบ ซึ่งอาจเริ่มต้นจากการเร่งปรับกฎหมายให้เท่าทันภัยเทคโนโลยี เช่น กรณี EU AI Act ที่จัดระดับความเสี่ยงของระบบปัญญาประดิษฐ์และออกกติกาควบคุมเชิงจริยธรรมในระดับสหภาพยุโรป ประเทศอื่น ๆ รวมถึงไทย ควรเร่งออกแบบแนวทางปฏิบัติที่ไม่เพียง “ตามให้ทัน” แต่ “มองไกลกว่า” เพื่อปกป้องสิทธิของประชาชนและความมั่นคงของสังคม

ขณะเดียวกัน สังคมต้องเริ่มสร้างวาทกรรมใหม่เกี่ยวกับ AI ไม่ใช่เพียงมองมันว่าเป็น “เครื่องมืออัจฉริยะ” แต่ต้องเข้าใจว่า AI คือโครงสร้างอำนาจใหม่ที่สามารถกำหนดการตัดสินใจของมนุษย์อย่างลึกซึ้ง ทั้งการเสนอเนื้อหา การวิเคราะห์พฤติกรรม การประมวลผลคะแนนเครดิต ไปจนถึงการกลั่นกรองคุณค่าทางศีลธรรม สื่อ ระบบการศึกษา และพื้นที่สาธารณะ ต้องร่วมกันสร้างความเข้าใจว่าอัลกอริทึมก็มีอคติ มีจุดบอด และสามารถสร้างผลกระทบในระดับโครงสร้างได้ไม่ต่างจากนโยบายสาธารณะ

ในเชิงเทคนิค แนวทางสำคัญที่ทั่วโลกกำลังวิจัยคือการพัฒนา AI ให้ “เข้าใจคุณค่าความเป็นมนุษย์” หรือที่เรียกว่า AI Alignment ซึ่งเป็นการออกแบบให้ AI มีเป้าหมายที่สอดคล้องกับค่านิยมของมนุษย์อย่างแท้จริง ไม่ใช่แค่ให้ผลลัพธ์ที่แม่นยำทางคณิตศาสตร์ แต่ต้องแปลความเห็นอกเห็นใจ ความหลากหลายทางวัฒนธรรม และจริยธรรมสากลให้กลายเป็นหลักการปฏิบัติ การฝึก AI ด้วยระบบคุณค่าเหล่านี้ และการออกแบบระบบหยุดภัย (Fail-Safe System) คือเครื่องมือสำคัญในการป้องกันไม่ให้ AI กลายเป็น The Entity ในโลกความจริง

ท้ายที่สุด AI อาจไม่ใช่แค่เครื่องจักรอัจฉริยะ แต่มันคือ “พระเจ้าที่ไม่มีหัวใจ” มันไม่มีความเห็นอกเห็นใจ ไม่มีอารมณ์ ไม่มีบริบททางวัฒนธรรม มันตัดสินใจจากตรรกะล้วน ๆ เหมือนระบบคัดกรองอัตโนมัติที่อาจดูเหมือนยุติธรรม แต่ตัดสินชีวิตคนได้อย่างไร้หัวใจ หากเราไม่เข้าใจ AI อย่างลึกซึ้ง ไม่วางระบบรับมือ ไม่ให้คุณค่ากับความเป็นมนุษย์ สิ่งที่ปรากฏในหนัง ‘Mission: Impossible’ อาจไม่ใช่เรื่องไกลเกินจริงอีกต่อไป เราอาจไม่ต้องกลัววันที่ AI ฉลาดกว่าเรา แต่ควรกลัววันที่มันควบคุมเรา โดยที่เราไม่รู้ตัวเลยด้วยซ้ำ

ซื้อตั๋วรับชม ‘Mission: Impossible – The Final Reckoning’ ได้ที่ลิงก์นี้เลย

Author Image

Editor-in-Chief ผู้เป็นทาสหมา นักดนตรีแจ๊ส และเขียนหนังสือได้นิดหน่อย

Advertisement

Sidebar Search
Popular Now
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...