ลูก 6 ขวบอยากตาย? สู่บริษัท AI ดูแลใจ
โลกของการสนับสนุนด้านสุขภาพจิตด้วย AI กำลังเติบโตอย่างรวดเร็ว แต่ก็เต็มไปด้วยอันตราย ตั้งแต่แชทบอทที่ให้คำแนะนำทางการแพทย์ที่ไม่ถูกต้อง ไปจนถึงเพื่อน AI ที่ส่งเสริมการทำร้ายตัวเอง ข่าวต่างๆ เต็มไปด้วยเรื่องราวเตือนใจ
แอปพลิเคชันชื่อดังอย่าง Character.AI และ Replika เผชิญกับการตอบโต้ที่รุนแรงจากการตอบสนองที่เป็นอันตรายและไม่เหมาะสม และการศึกษาทางวิชาการก็ได้เตือนถึงอันตรายเหล่านี้
การศึกษาล่าสุดสองชิ้นจาก มหาวิทยาลัยสแตนฟอร์ด และ มหาวิทยาลัยคอร์เนล พบว่าแชทบอท AI มักตีตราภาวะต่างๆ เช่น การติดแอลกอฮอล์และโรคจิตเภท ตอบสนอง “ไม่เหมาะสม” ต่อบางสถานการณ์ทั่วไป และ “ส่งเสริมความคิดเพ้อฝันของลูกค้า” พวกเขาเตือนถึงความเสี่ยงของการพึ่งพา AI มากเกินไปโดยไม่มีการกำกับดูแลจากมนุษย์
แต่ท่ามกลางสถานการณ์เหล่านั้น Hafeezah Muhammad ผู้หญิงผิวสี กำลังสร้างสิ่งที่แตกต่างออกไป และเธอกำลังทำสิ่งนั้นด้วยเหตุผลที่เป็นเรื่องส่วนตัวที่เจ็บปวด
“ในเดือนตุลาคมปี 2020 ลูกชายของฉันซึ่งอายุ 6 ขวบเข้ามาหาฉันและบอกว่าเขาต้องการฆ่าตัวตาย” เธอเล่า น้ำเสียงของเธอยังคงแบกรับน้ำหนักของช่วงเวลานั้น “ใจฉันแตกสลาย ฉันไม่เห็นมันจะเกิดขึ้นเลย”
ในขณะนั้น เธอเป็นผู้บริหารที่บริษัทด้านสุขภาพจิตระดับชาติ ซึ่งเป็นคนที่รู้ระบบอย่างละเอียด แต่เธอก็ยังไม่สามารถให้ลูกชายของเธอที่มีความพิการและอยู่ใน Medicaid เข้ารับการดูแลได้
“มีผู้ให้บริการเพียง 30% หรือน้อยกว่าเท่านั้นที่ยอมรับ Medicaid” เธออธิบาย “เด็กมากกว่า 50% ในสหรัฐอเมริกามาจากครอบครัวที่มีวัฒนธรรมหลากหลาย และไม่มีทางออกสำหรับเรา”
เธอบอกว่าเธอรู้สึกหวาดกลัว อับอาย และกังวลเกี่ยวกับความอัปยศของเด็กที่กำลังดิ้นรน ดังนั้นเธอจึงสร้างสิ่งที่เธอหาไม่เจอ
ปัจจุบัน Muhammad เป็นผู้ก่อตั้งและ CEO ของ Backpack Healthcare ผู้ให้บริการในรัฐแมริแลนด์ที่ให้บริการผู้ป่วยเด็กมากกว่า 4,000 ราย ส่วนใหญ่เป็นผู้รับ Medicaid เป็นบริษัทที่เดิมพันอนาคตด้วยแนวคิดที่ว่าเทคโนโลยีสามารถสนับสนุนสุขภาพจิตได้โดยไม่จำเป็นต้องแทนที่การสัมผัสจากมนุษย์
ในทางทฤษฎี Backpack ฟังดูเหมือนสตาร์ทอัพด้าน telehealth อื่นๆ อีกมากมาย ในความเป็นจริง แนวทางของบริษัทในการใช้ AI นั้นมีความมุ่งมั่นบนหลักปฏิบัติ โดยมุ่งเน้นไปที่แอปพลิเคชันที่ “น่าเบื่อ” แต่ส่งผลกระทบ ซึ่งช่วยเสริมศักยภาพให้นักบำบัดที่เป็นมนุษย์
อัลกอริทึมจะจับคู่เด็กๆ กับนักบำบัดที่ดีที่สุดเท่าที่จะเป็นไปได้ในการลองครั้งแรก (91% ของผู้ป่วยยังคงอยู่กับการจับคู่ครั้งแรก) AI ยังร่างแผนการรักษาและบันทึกการเข้าร่วม ทำให้แพทย์มีเวลามากขึ้นที่พวกเขาเคยเสียไปกับงานเอกสาร
“ผู้ให้บริการของเราใช้เวลามากกว่า 20 ชั่วโมงต่อสัปดาห์ไปกับงานธุรการ” Muhammad อธิบาย “แต่พวกเขาเป็นบรรณาธิการ”
แนวทาง human-in-the-loop นี้เป็นศูนย์กลางของปรัชญาของ Backpack
ความแตกต่างที่สำคัญที่สุดสำหรับ Backpack อยู่ที่แนวทางการป้องกันด้านจริยธรรมที่แข็งแกร่ง ผู้ดูแล AI ตลอด 24 ชั่วโมงทุกวันได้รับการนำเสนอโดย “Zipp” ซึ่งเป็นตัวการ์ตูนที่เป็นมิตร เป็นทางเลือกที่ตั้งใจที่จะหลีกเลี่ยง “ภาพลวงตาของความเห็นอกเห็นใจ” ที่เห็นในแชทบอทอื่นๆ
“เราต้องการทำให้ชัดเจนว่านี่เป็นเครื่องมือ ไม่ใช่มนุษย์” Muhammad กล่าว
นักลงทุน Nans Rivat จาก Pace Healthcare Capital เรียกสิ่งนี้ว่าเป็นกับดักของ “LLM empathy” ที่ผู้ใช้ “ลืมไปว่าคุณกำลังคุยกับเครื่องมือในตอนท้ายของวัน” เขาชี้ให้เห็นถึงกรณีต่างๆ เช่น Character.AI ที่การขาดแนวทางการป้องกันเหล่านี้ นำไปสู่ผลลัพธ์ที่ “น่าเศร้า”
Muhammad ยังยืนกรานในเรื่องความเป็นส่วนตัวของข้อมูล เธออธิบายว่าข้อมูลผู้ป่วยแต่ละรายจะไม่ถูกแชร์โดยไม่ได้รับความยินยอมเป็นลายลักษณ์อักษร อย่างไรก็ตาม บริษัทใช้ข้อมูลโดยรวมที่ไม่ระบุชื่อเพื่อรายงานแนวโน้ม เช่น ความเร็วในการกำหนดตารางการดูแลผู้ป่วยกลุ่มหนึ่ง ให้กับคู่ค้า
ที่สำคัญกว่านั้น Backpack ใช้ข้อมูลภายในเพื่อปรับปรุงผลลัพธ์ทางคลินิก โดยการติดตามตัวชี้วัดต่างๆ เช่น ระดับความวิตกกังวลหรือภาวะซึมเศร้า ระบบจะสามารถแจ้งเตือนผู้ป่วยที่อาจต้องการการดูแลในระดับที่สูงขึ้น เพื่อให้มั่นใจว่าเทคโนโลยีทำหน้าที่ช่วยให้เด็กๆ ดีขึ้นได้เร็วขึ้น
สิ่งสำคัญคือ ระบบของ Backpack ยังรวมถึงโปรโตคอลการตรวจจับวิกฤตทันที หากเด็กพิมพ์วลีที่บ่งบอกถึงความคิดฆ่าตัวตาย แชทบอทจะตอบกลับทันทีด้วยหมายเลขสายด่วนวิกฤตและคำแนะนำในการโทร 191 ในขณะเดียวกัน “ข้อความแสดงความทุกข์ทันที” จะถูกส่งไปยังทีมตอบสนองต่อวิกฤตของ Backpack ซึ่งจะติดต่อโดยตรงกับครอบครัว
“เราไม่ได้พยายามแทนที่นักบำบัด” Rivat กล่าว “เรากำลังเพิ่มเครื่องมือที่ไม่เคยมีมาก่อน โดยมีความปลอดภัยในตัว
นอกเหนือจากเทคโนโลยีที่มีจริยธรรมแล้ว Backpack ยังแก้ปัญหาการขาดแคลนนักบำบัดทั่วประเทศอีกด้วย ในหลายกรณี นักบำบัดซึ่งแตกต่างจากแพทย์ มักจะต้องจ่ายเงินจากกระเป๋าของพวกเขาเองสำหรับชั่วโมงการกำกับดูแลที่มีราคาแพง ซึ่งจำเป็นต่อการได้รับใบอนุญาต
เพื่อต่อสู้กับปัญหานี้ Backpack ได้เปิดตัวโครงการฝึกอบรมสองปีแบบมีค่าตอบแทนซึ่งครอบคลุมค่าใช้จ่ายเหล่านั้น สร้างแหล่งนักบำบัดที่ทุ่มเทและได้รับการฝึกฝนมาเป็นอย่างดี มีผู้สมัครมากกว่า 500 คนในแต่ละปี และโครงการนี้มีอัตราการคงอยู่ของพนักงานที่น่าประทับใจถึง 75%
ในปี 2021 นายแพทย์ Vivek H. Murthy อดีตศัลยแพทย์ทั่วไปของสหรัฐฯ เรียกสุขภาพจิตว่าเป็น “ปัญหาสาธารณสุขที่สำคัญที่สุดในยุคของเรา” ในขณะที่อ้างถึงวิกฤตสุขภาพจิตที่กำลังคุกคามคนหนุ่มสาว
Muhammad ไม่หลบเลี่ยงคำวิจารณ์ที่ว่า AI อาจทำให้สิ่งต่างๆ แย่ลง
“ไม่ว่าคนอื่นจะสร้างเทคโนโลยีนี้โดยไม่มีแนวทางการป้องกันที่เหมาะสม หรือฉันสามารถทำได้ ในฐานะแม่ เพื่อให้แน่ใจว่ามันถูกต้อง” เธอกล่าว
ปัจจุบันลูกชายของเธออายุ 11 ขวบ กำลังเติบโต และทำหน้าที่เป็น “หัวหน้าผู้คิดค้นนวัตกรรมสำหรับเด็ก” ของ Backpack
“ถ้าเราทำหน้าที่ของเราถูกต้อง พวกเขาไม่ต้องการเราตลอดไป” Muhammad กล่าว “เราให้เครื่องมือแก่พวกเขาในตอนนี้ เพื่อให้พวกเขาเติบโตเป็นผู้ใหญ่ที่ยืดหยุ่นได้ มันเหมือนกับการสอนให้พวกเขาขี่จักรยาน คุณเรียนรู้มันครั้งเดียว และมันก็กลายเป็นส่วนหนึ่งของตัวคุณ”
ลูก 6 ขวบอยากตาย? สู่บริษัท AI ดูแลใจ
บริษัท AI ช่วยดูแลใจเด็ก 6 ขวบได้อย่างไร?
บริษัท Backpack Healthcare ก่อตั้งขึ้นจากประสบการณ์ตรงของ Hafeezah Muhammad ที่ไม่สามารถหาการดูแลสุขภาพจิตที่เหมาะสมสำหรับลูกชายของเธอได้ เทคโนโลยี AI ถูกนำมาใช้เพื่อช่วยจับคู่ผู้ป่วยเด็กกับนักบำบัดที่เหมาะสม ลดภาระงานเอกสารของนักบำบัด และตรวจจับสัญญาณวิกฤต
- จับคู่เด็กกับนักบำบัดที่เหมาะสมด้วย AI
- ลดงานเอกสารให้นักบำบัด
- มีระบบตรวจจับภาวะวิกฤต
บริษัทนี้ให้ความสำคัญกับความเป็นส่วนตัวของข้อมูล และใช้ AI ในการปรับปรุงผลลัพธ์ทางคลินิกอย่างต่อเนื่อง Backpack Healthcare ยังแก้ปัญหาการขาดแคลนนักบำบัดโดยการเปิดโครงการฝึกอบรมของตนเอง
ใครจะเชื่อว่าเด็ก 6 ขวบคนหนึ่งจะเป็นแรงบันดาลใจในการสร้างบริษัท AI ดูแลใจ ที่ยิ่งใหญ่ได้ขนาดนี้
ผมว่าการสร้างเทคโนโลยีด้วยหัวใจและความเข้าใจ จะสามารถสร้างประโยชน์ให้กับสังคมได้อย่างมหาศาลครับ