การศึกษาพบว่าแชทบอท AI ยังไม่พร้อมที่จะทดแทนแพทย์

ICOHOIDER

แชทบอท AI ถูกส่งเสริมอย่างมากขึ้นในฐานะอนาคตของการดูแลสุขภาพ โดยบางระบบสามารถทำคะแนนได้ดีในการสอบมาตรฐานทางการแพทย์และให้คำแนะนำตามอาการแก่ผู้ใช้ อย่างไรก็ตาม การศึกษาชิ้นใหม่ที่เผยแพร่ในวารสาร Nature Medicine ชี้ให้เห็นว่าเครื่องมือเหล่านี้ไม่เพียงแต่ยังห่างไกลจากการทดแทนแพทย์เท่านั้น แต่ยังอาจเสี่ยงต่อความปลอดภัยเมื่อใช้เพื่อคำแนะนำทางการแพทย์ส่วนบุคคล

การวิจัยนี้นำโดยทีมงานจากมหาวิทยาลัยอ็อกซ์ฟอร์ด ซึ่งพบช่องว่างสำคัญในโมเดลภาษาขนาดใหญ่ (LLMs) ในขณะที่ระบบเหล่านี้แสดงความรู้ทางเทคนิคที่แข็งแกร่งและทำคะแนนได้ดีในการประเมินทางการแพทย์แบบมีโครงสร้าง แต่ก็ยังมีปัญหาเมื่อถูกถามให้ช่วยเหลือผู้ใช้ในเรื่องสุขภาพในโลกความเป็นจริง ตามคำกล่าวของนักวิจัย การแปลความรู้ทฤษฎีให้เป็นคำแนะนำทางการแพทย์ที่ปลอดภัยและใช้งานได้จริงยังคงเป็นความท้าทายสำคัญ

ดร. Rebecca Payne ผู้เชี่ยวชาญด้านการแพทย์หลักที่เป็นผู้นำในการศึกษา กล่าวว่า แม้ความสนใจใน AI ในด้านสุขภาพจะเพิ่มขึ้น แต่เทคโนโลยียังไม่พร้อมที่จะรับผิดชอบหน้าที่ของแพทย์ เธอเตือนว่าการพึ่งพาโมเดลภาษาขนาดใหญ่ในการวิเคราะห์อาการอาจเป็นอันตราย เนื่องจากอาจให้การวินิจฉัยผิดพลาดหรือไม่สามารถรับรู้สถานการณ์ที่ต้องการการดูแลเร่งด่วนได้

การทดสอบในวงกว้างเผยจุดอ่อนสำคัญ

การศึกษานี้มีผู้เข้าร่วมจำนวน 1,300 คน ซึ่งใช้โมเดล AI ที่พัฒนาโดย OpenAI, Meta และ Cohere ผู้เข้าร่วมได้รับสถานการณ์ทางการแพทย์ที่สร้างขึ้นโดยแพทย์ และถามให้ AI ระบบแนะนำขั้นตอนที่ควรดำเนินการเพื่อรับมือกับภาวะที่อธิบายไว้

นักวิจัยพบว่า คำแนะนำที่ได้จาก AI ไม่ได้มีความน่าเชื่อถือมากกว่าการวินิจฉัยด้วยตนเองแบบดั้งเดิม เช่น การค้นหาออนไลน์หรือการใช้ความรู้ส่วนตัว ในหลายกรณี ผู้ใช้ได้รับคำแนะนำที่ผสมผสานระหว่างข้อมูลที่ถูกต้องและข้อมูลที่เข้าใจผิด ทำให้ยากที่จะตัดสินใจขั้นตอนต่อไปที่เหมาะสม อีกหนึ่งความท้าทายคือด้านการสื่อสาร ผู้เข้าร่วมมักมีปัญหาในการเข้าใจว่าข้อมูลใดที่ AI ต้องการเพื่อสร้างคำแนะนำที่แม่นยำ

ดร. Payne เน้นย้ำว่าการวินิจฉัยทางการแพทย์ไม่ใช่เพียงการนึกถึงข้อเท็จจริงเท่านั้น เธออธิบายว่า การดูแลรักษาที่มีประสิทธิภาพต้องอาศัยการฟังอย่างตั้งใจ การถามคำถามเพื่อความชัดเจน การค้นหาอาการที่เกี่ยวข้อง และการนำทางผู้ป่วยผ่านการสนทนาที่เปลี่ยนแปลงได้ ผู้ป่วยมักไม่รู้ว่าข้อมูลใดมีความสำคัญทางการแพทย์ ซึ่งหมายความว่าแพทย์ต้องดึงข้อมูลสำคัญออกมาอย่างกระตือรือร้น การศึกษาสรุปว่า LLMs ในปัจจุบันยังไม่สามารถจัดการกับปฏิสัมพันธ์ที่ซับซ้อนนี้กับผู้ที่ไม่ใช่ผู้เชี่ยวชาญได้อย่างน่าเชื่อถือ

บทบาทสนับสนุน ไม่ใช่บทบาททางคลินิก

แม้นักวิจัยจะเตือนให้ระวังไม่ให้ใช้ AI แชทบอทเป็นที่ปรึกษาทางการแพทย์ แต่พวกเขาไม่ได้ปฏิเสธเทคโนโลยีโดยสิ้นเชิง แต่แนะนำว่า AI สามารถมีบทบาทสนับสนุนในด้านสุขภาพได้ ดร. Payne ชี้ว่า LLMs มีประโยชน์อย่างมากในการสรุปและจัดระเบียบข้อมูล ในสภาพแวดล้อมทางคลินิก พวกมันถูกนำมาใช้แล้วในการถอดเสียงการปรึกษาและแปลงเป็นจดหมายส่งต่อผู้เชี่ยวชาญ แผ่นข้อมูลผู้ป่วย หรือบันทึกทางการแพทย์

ทีมงานสรุปว่า แม้ AI จะมีศักยภาพในด้านสุขภาพ แต่ในปัจจุบันยังไม่เหมาะสมที่จะให้คำแนะนำทางการแพทย์โดยตรง พวกเขาแย้งว่ากรอบการประเมินผลและมาตรฐานความปลอดภัยที่พัฒนาขึ้นอย่างเหมาะสมเป็นสิ่งจำเป็นก่อนที่ระบบเหล่านี้จะสามารถนำไปใช้ในบทบาทที่เกี่ยวข้องกับผู้ป่วยได้อย่างรับผิดชอบ เป้าหมายของพวกเขาไม่ใช่การปฏิเสธ AI ในทางการแพทย์ แต่เพื่อให้แน่ใจว่ามันพัฒนาขึ้นในทิศทางที่ให้ความสำคัญกับความปลอดภัยของผู้ป่วยและความถูกต้องทางคลินิก

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น