
David Greene อดีตพิธีกร Morning Edition ของ NPR และผู้ดำเนินรายการของ KCRW ยื่นฟ้อง Google โดยกล่าวหาว่าเสียงโฮสต์ชายในฟีเจอร์ “Audio Overviews” ของ NotebookLM มีสไตล์การพูด จังหวะ และโทนเสียงคล้ายเขาอย่างมีนัยสำคัญโดยไม่ได้รับอนุญาต
กรณีนี้เกิดขึ้นในช่วงที่เสียงบรรยายจาก AI แพร่หลายมากขึ้น และกำลังทดสอบขอบเขตการคุ้มครอง “สไตล์เสียง” ที่ไม่ใช่ไฟล์บันทึกต้นฉบับ แต่เป็นความรู้สึกหรือบุคลิกที่ระบบเรียนรู้ขึ้นมา

The Washington Post รายงานว่า กรีนเริ่มตั้งข้อสงสัยหลังเพื่อนร่วมงานชี้ให้เห็นว่าเสียงโฮสต์ชายใน Audio Overviews มีจังหวะ น้ำเสียง และรูปแบบการเล่าเรื่องคล้ายเขาอย่างมาก ซึ่งเป็นอัตลักษณ์ที่สร้างมาตลอดหลายปีในวงการวิทยุ สำหรับผู้ประกาศข่าวที่ชื่อเสียงและรายได้ผูกกับ “เสียง” ของตน เรื่องนี้จึงกระทบทั้งภาพลักษณ์ วิชาชีพ และมูลค่าทางการค้า
Google ปฏิเสธข้อกล่าวหา โดยระบุว่าเสียงดังกล่าวมาจากนักพากย์มืออาชีพที่ได้รับค่าจ้าง ไม่ใช่เสียงของกรีน โดย NotebookLM สร้างบทสนทนา AI เพื่อสรุปเอกสารผู้ใช้ให้ฟังในรูปแบบที่เป็นธรรมชาติ คล้ายรายการวิทยุสาธารณะ
ผู้เชี่ยวชาญชี้ว่าโทน “วิทยุสาธารณะ” มักมีลักษณะคล้ายกัน เช่น การออกเสียงชัดเจน การเว้นจังหวะเหมาะสม และการเน้นเสียงนุ่มนวล จึงอาจทำให้เกิดความคล้ายโดยไม่ได้ตั้งใจ อย่างไรก็ตาม เส้นแบ่งระหว่างแรงบันดาลใจกับการลอกเลียนยังเป็นโจทย์ท้าทายทางกฎหมาย

ข้อพิพาทเรื่องเสียง AI เพิ่มขึ้นต่อเนื่อง เช่น OpenAI ถอนเสียง ChatGPT หลัง Scarlett Johansson ระบุว่าเสียงคล้ายเธอ TikTok ยุติคดีกับ Beverly Standing กรณีใช้เสียงโดยไม่ได้รับอนุญาต เหตุการณ์เหล่านี้สะท้อนความตึงเครียดเรื่องความยินยอม การชดเชย และขอบเขตการใช้เสียงในยุค AI
ศาลสหรัฐฯ เคยรับรองว่า “เสียงที่เป็นเอกลักษณ์” อาจได้รับความคุ้มครอง แม้ไม่ใช้ไฟล์ต้นฉบับ ตัวอย่างเช่นคดี Midler v. Ford Motor Co. หรือ Waits v. Frito-Lay ซึ่งตัดสินว่าการจ้างคนเลียนเสียงคนดังในเชิงพาณิชย์อาจละเมิดสิทธิในการใช้ชื่อเสียง (right of publicity)
คำถามสำคัญคือ หลักการนี้จะใช้กับเสียงที่ AI สร้างขึ้นเองได้แค่ไหน เนื่องจากกฎหมายแต่ละรัฐนั้นแตกต่างกัน และบางรัฐเริ่มเพิ่มการคุ้มครอง “สำเนาดิจิทัล” ที่ไม่ได้รับอนุญาต
หากศาลเห็นว่าเสียงใน NotebookLM คล้ายกรีน “มากพอ” และก่อให้เกิดความสับสน อาจมีคำสั่งให้ปรับเปลี่ยนเสียง ชดเชยค่าเสียหาย หรือกำหนดการเปิดเผยว่าเป็นเสียงสังเคราะห์ บริษัทเทคโนโลยีต่าง ๆ อาจต้องเพิ่มมาตรการ เช่น การรับรองสัญญานักพากย์ การติดป้ายกำกับเสียง AI และการตรวจสอบความเสี่ยงด้านแบรนด์
คดีนี้ไม่ใช่แค่ข้อพิพาทส่วนบุคคล แต่เป็นบททดสอบว่า “เสียง” ซึ่งเคยเป็นอัตลักษณ์เฉพาะตัว จะยังได้รับการคุ้มครองอย่างไรในยุคที่ AI สามารถสร้างบุคลิกเสียงได้อย่างแนบเนียนหรือไม่
ที่มา findarticles





