การทดสอบทางห้องปฏิบัติการที่ไม่เท่าเทียมเพื่อวินิจฉัยโรคร้ายแรง ที่ใช้เป็น Data set ข้อมูลที่ใช้ในการฝึกอบรม Gen AI สำหรับการดูแลสุขภาพ อาจสร้างอคติด้านเชื้อชาติ ซึ่งอาจทำให้เกิดความเหลื่อมล้ำในการให้บริการทางการแพทย์ได้
Inequitable lab testing to diagnose severe disease can create racial biases in the data used to train healthcare AI, potentially perpetuating care disparities.
Data set จากการทดสอบทางการแพทย์ที่ไม่เท่าเทียม สร้างอคติด้านเชื้อชาติใน AI
ตามงานวิจัยล่าสุดที่เผยแพร่ในวารสาร PLOS Global Public Health ความไม่เท่าเทียมกันด้านเชื้อชาติในการทดสอบวินิจฉัยโรคร้ายแรงสามารถสร้างกลไกสำหรับอคติในระบบการตัดสินใจทางคลินิกที่ใช้ Gen AI ได้
งานวิจัยนี้รวมถึงผลงานที่นำเสนอในงาน International Conference on Machine Learning ปี 2024 แสดงให้เห็นว่าผู้ป่วยผิวดำมีโอกาสน้อยกว่าผู้ป่วยผิวขาวที่จะได้รับการทดสอบทางการแพทย์สำหรับภาวะร้ายแรง เช่น ภาวะติดเชื้อในกระแสเลือด (sepsis)
ความไม่เท่าเทียมในการทดสอบเหล่านี้สร้างอคติด้านเชื้อชาติในข้อมูลคลินิกซึ่งมักใช้ในการฝึก Gen AI สำหรับการดูแลสุขภาพ ทำให้เครื่องมือเหล่านี้มีแนวโน้มที่จะประเมินความเจ็บป่วยในกลุ่มประชากรผิวดำต่ำกว่าความเป็นจริง การใช้โมเดลเหล่านี้ในระบบสนับสนุนการตัดสินใจทางคลินิกอาจทำให้เกิดความเหลื่อมล้ำด้านสุขภาพมากขึ้น ทำให้การจัดการอคติใน AI เป็นเรื่องสำคัญที่ระบบสุขภาพต้องให้ความสำคัญ
งานวิจัยของ PLOS เปิดเผยว่า ในกลุ่มผู้ป่วยสองกลุ่มจาก Michigan Medicine และ Beth Israel Deaconess Medical Center ในบอสตัน เมื่อเปรียบเทียบผู้ป่วยที่มีเพศ อายุ ข้อร้องเรียนทางการแพทย์ และคะแนนการคัดกรองในแผนกฉุกเฉินเหมือนกัน ผู้ป่วยผิวขาวได้รับการทดสอบทางการแพทย์ในอัตราที่สูงกว่าผู้ป่วยผิวดำถึง 4.5%
ทีมวิจัยระบุว่า อคตินี้อาจเกิดจากอัตราการรับผู้ป่วยของโรงพยาบาล เนื่องจากผู้ป่วยผิวดำมักถูกประเมินว่ามีอาการป่วยน้อยกว่าผู้ป่วยผิวขาว และมีโอกาสน้อยที่จะถูกนำเข้ารักษาในโรงพยาบาล การคำนึงถึงอคติเหล่านี้ในการฝึก Gen AI จะช่วยให้สามารถทำนายได้อย่างเที่ยงตรงและเท่าเทียมมากขึ้น
“หากมีบางกลุ่มของผู้ป่วยที่ไม่ได้รับการทดสอบอย่างสม่ำเสมอ แสดงว่าเราได้นำอคตินี้มาใส่ไว้ในโมเดลของเรา” Jenna Wiens, Ph.D., รองศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์และวิศวกรรมที่มหาวิทยาลัยมิชิแกน กล่าวในแถลงการณ์
Wiens กล่าวต่อว่า “การปรับเปลี่ยนเพื่อแก้ไขปัจจัยที่สับสนเช่นนี้เป็นเทคนิคทางสถิติที่เป็นมาตรฐาน แต่โดยทั่วไปไม่ได้ทำก่อนการฝึกโมเดล AI เมื่อฝึก Gen AI สิ่งสำคัญคือต้องยอมรับข้อบกพร่องในข้อมูลที่มีและคิดถึงผลกระทบที่อาจตามมา”
เพื่อแก้ไขอคติใน AI นักพัฒนาสามารถละเว้นบันทึกผู้ป่วยบางรายเพื่อสร้างชุดข้อมูลที่มีอคติน้อยกว่า ในทางปฏิบัติอาจเป็นการรวมเฉพาะบันทึกของผู้ป่วยที่ได้รับการทดสอบวินิจฉัยทางการแพทย์เท่านั้น แต่นักวิจัยตั้งข้อสังเกตว่าวิธีนี้อาจทำให้โมเดลที่ฝึกจากข้อมูลนั้นไม่แม่นยำสำหรับผู้ป่วยที่มีอาการไม่รุนแรง
แทนที่จะละเว้นบันทึกผู้ป่วย ทีมวิจัยได้พัฒนาอัลกอริทึมคอมพิวเตอร์ที่ออกแบบมาเพื่อระบุว่าผู้ป่วยที่ไม่ได้รับการทดสอบมีแนวโน้มป่วยหรือไม่ โดยพิจารณาจากปัจจัยต่างๆ เช่น สัญญาณชีพและเชื้อชาติ
แม้ว่าการใช้เชื้อชาติในอัลกอริทึมทางคลินิกกำลังถูกพิจารณาใหม่ แต่ในการวิจัยนี้ยังคงใช้เชื้อชาติเป็นตัวแปร เนื่องจากผู้ป่วยที่ระบุว่าเป็นคนผิวดำในชุดข้อมูลมีแนวโน้มได้รับผลกระทบจากอคติในการทดสอบทางการแพทย์มากกว่า
จากนั้นอัลกอริทึมได้ถูกทดสอบด้วยชุดข้อมูลจำลอง ซึ่งมีการสร้างอคติที่รู้แน่ชัดขึ้น โดยการจัดประเภทผู้ป่วยที่เดิมระบุว่าป่วยให้เป็น “ไม่ได้รับการทดสอบและมีสุขภาพดี” ชุดข้อมูลนี้ถูกใช้ในการฝึกโมเดล machine learning (ML)
เมื่อแก้ไขอคติที่รู้แน่ชัดโดยใช้อัลกอริทึมคอมพิวเตอร์ ML สามารถแยกแยะระหว่างผู้ป่วยที่มีภาวะติดเชื้อในกระแสเลือดและผู้ที่ไม่มีได้ประมาณ 60% ของกรณี โดยที่หากไม่ใช้อัลกอริทึม ประสิทธิภาพของ ML จะลดลงอย่างมาก
ความแม่นยำที่ได้จากการใช้อัลกอริทึมคอมพิวเตอร์ในการแก้ไขข้อมูลที่มีอคตินั้นใกล้เคียงกับ ML ที่ฝึกจากข้อมูลจำลองที่ไม่มีอคติ
“วิธีการที่คำนึงถึงอคติในข้อมูลเป็นก้าวสำคัญในการแก้ไขความเหลื่อมล้ำบางประการในการให้บริการทางการแพทย์ โดยเฉพาะอย่างยิ่งเมื่อคลินิกต่างๆ หันมาใช้โซลูชัน AI มากขึ้น” Trenton Chang นักศึกษาปริญญาเอกด้านวิทยาการคอมพิวเตอร์และวิศวกรรมจากมหาวิทยาลัยมิชิแกน กล่าว