ในบทความแสดงความคิดเห็นล่าสุด ทีมจาก MIT, Equality AI และ Boston University ได้เน้นย้ำถึงช่องว่างในการควบคุมโมเดล AI และอัลกอริทึมที่ไม่ใช่ AI ในระบบสุขภาพ
In a recent commentary, a team from MIT, Equality AI, and Boston University highlights the gaps in regulation for AI models and non-AI algorithms in health care.
AI ในวงการสุขภาพควรถูกควบคุม แต่ไม่ควรมองข้ามอัลกอริทึม นักวิจัยกล่าว
ในบทความแสดงความคิดเห็นล่าสุด ทีมจาก MIT, Equality AI และ Boston University ได้เน้นย้ำถึงช่องว่างในการควบคุมโมเดล AI และอัลกอริทึมที่ไม่ใช่ AI ในระบบสุขภาพ
บางคนอาจโต้แย้งว่าหน้าที่หลักของแพทย์คือการประเมินและพิจารณาความน่าจะเป็นอย่างต่อเนื่อง: โอกาสสำเร็จของกระบวนการทางการแพทย์คืออะไร? ผู้ป่วยเสี่ยงที่จะพัฒนาอาการรุนแรงหรือไม่? ผู้ป่วยควรกลับมาตรวจเพิ่มเติมเมื่อใด? ท่ามกลางการพิจารณาเหล่านี้ การเพิ่มขึ้นของปัญญาประดิษฐ์มีศักยภาพที่จะลดความเสี่ยงในสถานการณ์ทางคลินิกและช่วยให้แพทย์จัดลำดับความสำคัญในการดูแลผู้ป่วยที่มีความเสี่ยงสูงได้ดีขึ้น
แม้จะมีศักยภาพดังกล่าว นักวิจัยจาก MIT Department of Electrical Engineering and Computer Science (EECS), Equality AI และ Boston University ได้เรียกร้องให้หน่วยงานกำกับดูแลเพิ่มการตรวจสอบ AI ในบทความแสดงความคิดเห็นที่ตีพิมพ์ในฉบับเดือนตุลาคมของ New England Journal of Medicine AI (NEJM AI) หลังจากที่ U.S. Office for Civil Rights (OCR) ใน Department of Health and Human Services (HHS) ได้ออกกฎใหม่ภายใต้ Affordable Care Act (ACA)
ในเดือนพฤษภาคม OCR ได้เผยแพร่กฎขั้นสุดท้ายภายใต้ ACA ที่ห้ามการเลือกปฏิบัติบนพื้นฐานของเชื้อชาติ สีผิว ชาติพันธุ์ อายุ ความพิการ หรือเพศ ใน “เครื่องมือสนับสนุนการตัดสินใจทางการแพทย์สำหรับผู้ป่วย” ซึ่งเป็นคำใหม่ที่ครอบคลุมทั้งเครื่องมือที่ใช้ AI และเครื่องมือที่ไม่ใช่ AI ในทางการแพทย์
กฎดังกล่าวพัฒนาขึ้นเพื่อตอบสนองต่อคำสั่งผู้บริหารของประธานาธิบดี Joe Biden เกี่ยวกับการพัฒนาและการใช้ปัญญาประดิษฐ์ที่ปลอดภัย เชื่อถือได้ และโปร่งใสในปี 2023 โดยกฎขั้นสุดท้ายนี้เสริมสร้างความมุ่งมั่นของรัฐบาล Biden-Harris ในการส่งเสริมความเท่าเทียมด้านสุขภาพโดยมุ่งเน้นไปที่การป้องกันการเลือกปฏิบัติ
Marzyeh Ghassemi ผู้เขียนหลักและรองศาสตราจารย์จาก EECS กล่าวว่า “กฎนี้เป็นก้าวสำคัญไปข้างหน้า” Ghassemi ซึ่งมีส่วนเกี่ยวข้องกับ MIT Abdul Latif Jameel Clinic for Machine Learning in Health (Jameel Clinic), Computer Science and Artificial Intelligence Laboratory (CSAIL) และ Institute for Medical Engineering and Science (IMES) กล่าวเสริมว่ากฎนี้ “ควรกำหนดให้มีการปรับปรุงเครื่องมือสนับสนุนการตัดสินใจและอัลกอริทึมที่ไม่ใช่ AI ให้ขับเคลื่อนด้วยความเท่าเทียม ซึ่งมีการใช้งานในสาขาเฉพาะทางทางคลินิกต่าง ๆ อยู่แล้ว”
จำนวนอุปกรณ์ที่ได้รับการอนุมัติจาก U.S. Food and Drug Administration (FDA) ที่ใช้ AI เพิ่มขึ้นอย่างมากในช่วงทศวรรษที่ผ่านมา ตั้งแต่การอนุมัติอุปกรณ์ AI เครื่องแรกในปี 1995 (PAPNET Testing System เครื่องมือสำหรับการคัดกรองมะเร็งปากมดลูก) จนถึงปัจจุบันในเดือนตุลาคม FDA ได้อนุมัติอุปกรณ์ที่ใช้ AI เกือบ 1,000 ชิ้น ซึ่งส่วนใหญ่ออกแบบมาเพื่อสนับสนุนการตัดสินใจทางคลินิก
อย่างไรก็ตาม นักวิจัยระบุว่ายังไม่มีหน่วยงานกำกับดูแลที่ดูแลคะแนนความเสี่ยงทางคลินิกที่ผลิตโดยเครื่องมือสนับสนุนการตัดสินใจทางคลินิก แม้ว่ากว่า 65% ของแพทย์ในสหรัฐฯ จะใช้เครื่องมือเหล่านี้เป็นประจำทุกเดือนเพื่อตัดสินใจขั้นตอนต่อไปในการดูแลผู้ป่วย
เพื่อแก้ไขปัญหานี้ Jameel Clinic จะจัดการประชุมว่าด้วยการกำกับดูแลอีกครั้งในเดือนมีนาคม 2025 โดยการประชุมครั้งที่แล้วได้จุดประกายการสนทนาและการอภิปรายในหมู่คณาจารย์ หน่วยงานกำกับดูแลจากทั่วโลก และผู้เชี่ยวชาญในอุตสาหกรรมเกี่ยวกับการกำกับดูแล AI ในด้านสุขภาพ
“คะแนนความเสี่ยงทางคลินิกมีความโปร่งใสน้อยกว่าอัลกอริทึม ‘AI’ เนื่องจากมักเกี่ยวข้องกับตัวแปรเพียงไม่กี่ตัวที่เชื่อมโยงในโมเดลง่าย ๆ” Isaac Kohane ประธาน Department of Biomedical Informatics ที่ Harvard Medical School และบรรณาธิการบริหารของ NEJM AI กล่าว “อย่างไรก็ตาม แม้แต่คะแนนเหล่านี้ก็ยังดีพอ ๆ กับชุดข้อมูลที่ใช้ในการ ‘ฝึกฝน’ และตัวแปรที่ผู้เชี่ยวชาญเลือกศึกษาสำหรับกลุ่มตัวอย่างเฉพาะ หากมันส่งผลต่อการตัดสินใจทางคลินิก ควรถูกยึดตามมาตรฐานเดียวกันกับ AI ที่ซับซ้อนกว่าในปัจจุบัน”
นอกจากนี้ แม้ว่าเครื่องมือสนับสนุนการตัดสินใจหลายตัวจะไม่ได้ใช้ AI แต่นักวิจัยระบุว่าเครื่องมือเหล่านี้ก็มีส่วนในอคติทางสุขภาพเช่นกัน และจำเป็นต้องได้รับการกำกับดูแล
“การควบคุมคะแนนความเสี่ยงทางคลินิกเป็นความท้าทายที่สำคัญ เนื่องจากเครื่องมือสนับสนุนการตัดสินใจทางคลินิกที่ฝังอยู่ในระบบบันทึกเวชระเบียนอิเล็กทรอนิกส์มีการใช้งานอย่างแพร่หลายในทางปฏิบัติ” Maia Hightower CEO ของ Equality AI กล่าว “แต่การควบคุมเหล่านี้ยังคงจำเป็นเพื่อรับรองความโปร่งใสและการไม่เลือกปฏิบัติ”
อย่างไรก็ตาม Hightower เสริมว่าภายใต้การบริหารชุดใหม่ การควบคุมคะแนนความเสี่ยงทางคลินิกอาจเผชิญกับความท้าทายที่ “ยากเป็นพิเศษ เนื่องจากการเน้นย้ำถึงการลดการควบคุมและการต่อต้าน Affordable Care Act รวมถึงนโยบายบางประการที่เกี่ยวข้องกับการไม่เลือกปฏิบัติ”