นักวิจัยในประเทศจีนได้ตั้งข้อสังเกตว่าปัจจุบันโรงพยาบาลในประเทศจีนมีการนำ DeepSeek เข้ามาประยุกต์ใช้ในโรงพยาบาลอย่างรวดเร็วเกินไป พร้อมกับเตือนว่าการนำ DeepSeek หรือ AI เข้ามาใช้งานในโรงพยาบาลทำให้เกิดความเสี่ยงต่อความปลอดภัยและข้อมูลส่วนตัว
จากข้อมูลพบว่าเมื่อต้นเดือนมีนาคม มีโรงพยาบาลกว่า 300 แห่งในประเทศจีนได้เริ่มใช้โมเดลภาษาขนาดใหญ่ หรือ LLM ของ DeepSeek ในการวินิจฉัยทางคลินิกและช่วยสนับสนุนการตัดสินใจ/วินิจฉัยทางการแพทย์ด้วย โดย หว่อง เทียน หยิน (Wong Tien Yin) ผู้ก่อตั้ง Tsinghua Medicine ซึ่งเป็นกลุ่มโรงเรียนวิจัยทางการแพทย์ของมหาวิทยาลัย Tsinghua ในปักกิ่งระบุว่า DeepSeek มีแนวโน้มที่จะสร้างผลลัพธ์ที่น่าเชื่อถือ แต่ไม่ถูกต้องตามข้อเท็จจริงซึ่งอาจนำไปสู่การวินิจฉัยที่ผิดพลาดได้
ศาสตราจารย์หว่อง ผู้เชี่ยวชาญด้านจักษุวิทยาและอดีตผู้อำนวยการฝ่ายการแพทย์ของศูนย์ตาแห่งชาติสิงคโปร์ และบุคคลที่ร่วมงานระบุว่า ผู้เชี่ยวชาญด้านการแพทย์อาจพึ่งพาผลงานของ DeepSeek มากเกินไป หรือไม่มีการตั้งข้อสงสัยในคำตอบของ AI เลยนั้น อาจส่งผลให้เกิดข้อผิดพลาดในการวินิจฉัยได้ และอาจจะเป็นงานที่มากขึ้นสำหรับแพทย์ที่ต้องคอยตรวจสอบข้อมูลที่ AI วิเคราะห์ออกมาด้วย
แม้ว่าโรงพยาบาลส่วนใหญ่จะเลือกใช้โมเดล DeepSeek ที่ไม่ผ่านคลาวด์เพื่อป้องกันเรื่องความปลอดภัยส่วนหนึ่งนั้น ก็ยังมีส่วนที่ต้องพิจารณาคือความปลอดภัยของโรงพยาบาลแต่ละที่ซึ่งหลายแห่งไม่มีโครงสร้างพื้นฐานด้านความปลอดภัยทางไซเบอร์ที่ครอบคลุมมากพอ
ประชาชนที่ไม่ได้รัรับการบริการที่เพียบพร้อมสามารถศึกษาคำแนะนำด้านสุขภาพจาก AI ได้อย่างไม่เคยมีมาก่อน แม้จะมีข้อดีแต่ก็ขาดการดูแลทางคลินิกที่จำเป็นสำหรับการนำไปปฏิบัติตัวอย่างปลอดภัย
การเผยแพร่ข้อมูลดังกล่าวถือว่าเป็นกระบอกเสียงที่หาได้ยากในประเทศจีนเกี่ยวกับการใช้ DeepSeek ที่มากเกินควร อย่างไรก็ตามบริษัทผู้พัฒนา DeepSeek ไม่ได้แสดงความคิดเห็นใด ๆ ต่อรายงานดังกล่าว
ที่มา SCMP