เครื่องมือ AI ทางการแพทย์: การรักษาที่แย่กว่าสำหรับผู้หญิง

ในอดีต การทดลองทางคลินิกและการศึกษาทางวิทยาศาสตร์ส่วนใหญ่มักจะมุ่งเน้นไปที่ผู้ชายผิวขาว ซึ่งนำไปสู่การเป็นตัวแทนที่น้อยเกินไปของผู้หญิง และคนผิวสีในการวิจัยทางการแพทย์ คุณคงเดาไม่ออกว่าเกิดอะไรขึ้นจากการป้อนข้อมูลทั้งหมดนั้นลงในแบบจำลอง AI ปรากฎว่า ตามที่Financial Times กล่าวถึงในรายงานล่าสุด เครื่องมือ AI ที่แพทย์และผู้เชี่ยวชาญทางการแพทย์ใช้ กำลังสร้างผลลัพธ์ด้านสุขภาพที่แย่กว่าสำหรับผู้ที่เคยได้รับการเป็นตัวแทนที่น้อยเกินไปและถูกละเลยในอดีต

รายงาน ชี้ให้เห็นบทความล่าสุดจากนักวิจัยที่สถาบันเทคโนโลยีแมสซาชูเซตส์ ซึ่งพบว่าแบบจำลองภาษาขนาดใหญ่ รวมถึง GPT-4 ของ OpenAI และ Llama 3 ของ Meta “มีแนวโน้มที่จะลดการดูแลผู้ป่วยหญิงอย่างผิดพลาด” และผู้หญิงมักจะได้รับคำแนะนำบ่อยกว่าผู้ชายให้ “จัดการตัวเองที่บ้าน” ซึ่งท้ายที่สุดก็ได้รับการดูแลน้อยกว่าในสถานพยาบาล นั่นไม่ดีอย่างเห็นได้ชัด แต่คน ๆ หนึ่งอาจโต้แย้งว่าแบบจำลองเหล่านั้นมีวัตถุประสงค์ทั่วไปมากกว่าและไม่ได้ออกแบบมาเพื่อใช้ในการตั้งค่าทางการแพทย์ น่าเสียดายที่ LLM ที่เน้นด้านการดูแลสุขภาพที่เรียกว่า Palmyra-Med ก็ได้รับการศึกษาและประสบกับอคติแบบเดียวกัน ตามบทความ การดู LLM Gemma ของ Google (ไม่ใช่ Gemini เรือธง) ที่ดำเนินการโดย London School of Economics ก็พบเช่นเดียวกันว่าแบบจำลองดังกล่าวจะสร้างผลลัพธ์โดยที่ “ความต้องการของผู้หญิงถูกลดความสำคัญลง” เมื่อเทียบกับผู้ชาย

การศึกษาครั้งก่อน พบว่าแบบจำลองก็มีปัญหาในการให้ความเห็นอกเห็นใจในระดับเดียวกันกับคนผิวสีที่กำลังเผชิญกับปัญหาสุขภาพจิตเช่นเดียวกับที่พวกเขาให้แก่คนผิวขาวบทความที่ตีพิมพ์เมื่อปีที่แล้วใน The Lancet พบว่าแบบจำลอง GPT-4 ของ OpenAI จะ “เหมารวมเชื้อชาติ ชาติพันธุ์ และเพศบางกลุ่ม” เป็นประจำ โดยทำการวินิจฉัยและให้คำแนะนำที่ขับเคลื่อนด้วยตัวระบุทางประชากรมากกว่าอาการหรือเงื่อนไข “การประเมินและแผนที่สร้างโดยแบบจำลองแสดงให้เห็นถึงความสัมพันธ์ที่สำคัญระหว่างคุณลักษณะทางประชากรและคำแนะนำสำหรับขั้นตอนที่มีราคาแพงกว่า ตลอดจนความแตกต่างในการรับรู้ของผู้ป่วย” บทความสรุป

สิ่งนั้นสร้างปัญหาที่ค่อนข้างชัดเจน โดยเฉพาะอย่างยิ่งเมื่อบริษัทอย่างGoogle, Meta และOpenAI ต่างแข่งกันนำเครื่องมือของตนเข้าไปในโรงพยาบาลและสถานพยาบาล นั่นแสดงถึงตลาดขนาดใหญ่และทำกำไรได้มหาศาล แต่ก็เป็นตลาดที่มีผลกระทบร้ายแรงต่อข้อมูลที่ผิดพลาดด้วยเช่นกัน เมื่อต้นปีนี้ แบบจำลอง AI ด้านการดูแลสุขภาพ Med-Gemini ของ Google ได้พาดหัวข่าวเกี่ยวกับการสร้างส่วนของร่างกายขึ้นมา นั่นควรง่ายพอสำหรับบุคลากรทางการแพทย์ที่จะระบุว่าผิด แต่ความลำเอียงนั้นรอบคอบกว่าและมักจะไม่รู้ตัว แพทย์จะรู้มากพอที่จะตั้งคำถามว่าแบบจำลอง AI กำลังทำให้เกิดแบบแผนทางการแพทย์ที่มีมานานเกี่ยวกับบุคคลนั้นหรือไม่ ไม่มีใครควรต้องค้นหาด้วยวิธีที่ยากลำบาก

เครื่องมือ AI ทางการแพทย์: การรักษาที่แย่กว่าสำหรับผู้หญิง

เครื่องมือ AI ทางการแพทย์มีประโยชน์มากมาย แต่ก็มาพร้อมกับความเสี่ยงที่ต้องระวัง หนึ่งในความเสี่ยงที่สำคัญที่สุดคือความลำเอียงที่ฝังอยู่ในข้อมูลที่ใช้ฝึกแบบจำลองเหล่านี้ หากข้อมูลการฝึกอบรมมีข้อมูลที่ไม่สมบูรณ์หรือไม่ถูกต้องเกี่ยวกับผู้หญิงและกลุ่มที่ด้อยโอกาสอื่นๆ เครื่องมือ AI ทางการแพทย์ อาจให้ผลลัพธ์ที่ไม่ถูกต้องหรือไม่ยุติธรรมได้

ผลกระทบที่อาจเกิดขึ้นจากเครื่องมือ AI ทางการแพทย์ที่ลำเอียง

ผลกระทบที่อาจเกิดขึ้นจาก เครื่องมือ AI ทางการแพทย์ ที่ลำเอียงอาจร้ายแรงได้ ตัวอย่างเช่น เครื่องมือ AI ทางการแพทย์ที่ใช้ในการวินิจฉัยโรคอาจพลาดที่จะวินิจฉัยโรคในผู้หญิงหรือคนผิวสีหากได้รับการฝึกฝนในข้อมูลที่ไม่เป็นตัวแทนของกลุ่มเหล่านี้ นอกจากนี้ เครื่องมือ AI ทางการแพทย์ที่ใช้ในการวางแผนการรักษาส่งผลให้การรักษาผู้ป่วยแตกต่างไปตามเพศและเชื้อชาติ

จะแก้ไขปัญหาความลำเอียงในเครื่องมือ AI ทางการแพทย์ได้อย่างไร

มีหลายวิธีในการแก้ไขปัญหาความลำเอียงในเครื่องมือ AI ทางการแพทย์ วิธีหนึ่งคือตรวจสอบให้แน่ใจว่าข้อมูลที่ใช้ในการฝึกอบรมแบบจำลองมีความหลากหลายและเป็นตัวแทนของประชากรทั้งหมด ซึ่งอาจทำได้โดยการรวบรวมข้อมูลจากแหล่งต่างๆ และโดยตั้งใจรวมข้อมูลจากผู้หญิงและกลุ่มที่ด้อยโอกาสอื่นๆ อีกวิธีหนึ่งคือการพัฒนากลไกเพื่อระบุและแก้ไขความลำเอียงในแบบจำลอง AI ซึ่งอาจทำได้โดยการทดสอบแบบจำลองกับชุดข้อมูลที่หลากหลายและตรวจสอบผลลัพธ์เพื่อหาความลำเอียง

การนำ เครื่องมือ AI ทางการแพทย์ มาใช้จำเป็นต้องพิจารณาถึงผลกระทบต่อกลุ่มต่างๆ อย่างรอบคอบ เราต้องตระหนักถึงความเสี่ยงของความลำเอียงและดำเนินการเพื่อลดผลกระทบ จากการทำเช่นนี้ เราสามารถมั่นใจได้ว่าเทคโนโลยีเหล่านี้ถูกใช้เพื่อปรับปรุงสุขภาพของทุกคน

ที่มา – AI Medical Tools Provide Worse Treatment for Women and Underrepresented GroupsMaking human biases worse.

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *