ผู้เชี่ยวชาญ AI เร่งรัฐบาลคิดหาทางออก

ดูเหมือนทุกคนจะตระหนักดีว่าปัญญาประดิษฐ์ (AI) เป็นเทคโนโลยีที่กำลังพัฒนาอย่างรวดเร็วและมีศักยภาพที่จะก่อให้เกิดอันตรายอย่างใหญ่หลวง หากใช้งานโดยไม่มีมาตรการป้องกัน แต่โดยพื้นฐานแล้วแทบไม่มีใคร (ยกเว้น สหภาพยุโรป ที่พอจะเห็นด้วย) สามารถตกลงกันได้ว่าจะควบคุมมันอย่างไร ดังนั้น แทนที่จะพยายามสร้างเส้นทางที่ชัดเจนและแคบสำหรับวิธีที่เราจะอนุญาตให้ AI ทำงาน ผู้เชี่ยวชาญในสาขานี้จึงเลือกแนวทางใหม่: เรามาคิดดูกันว่าตัวอย่างสุดโต่งแบบไหนที่เราทุกคนคิดว่าไม่ดี และตกลงกันในเรื่องนั้นดีไหม

เมื่อวันจันทร์ที่ผ่านมา กลุ่มนักการเมือง นักวิทยาศาสตร์ และนักวิชาการได้เข้าร่วมการประชุมสมัชชาใหญ่แห่งสหประชาชาติเพื่อประกาศ Global Call for AI Red Lines ซึ่งเป็นการเรียกร้องให้รัฐบาลของโลกมารวมตัวกันและตกลงกันในขอบเขตที่กว้างที่สุดของแนวป้องกัน เพื่อป้องกัน “ความเสี่ยงที่ไม่เป็นที่ยอมรับในระดับสากล” ที่อาจเกิดขึ้นจากการใช้งาน AI เป้าหมายของกลุ่มคือการกำหนดเส้นแดงเหล่านี้ให้แล้วเสร็จภายในสิ้นปี 2026

ข้อเสนอนี้ได้รับการลงนามมากกว่า 200 รายชื่อจากผู้เชี่ยวชาญในอุตสาหกรรม ผู้นำทางการเมือง และผู้ได้รับรางวัลโนเบล อดีตประธานาธิบดีแห่งไอร์แลนด์ Mary Robinson และอดีตประธานาธิบดีแห่งโคลอมเบีย Juan Manuel Santos ก็เข้าร่วมด้วย เช่นเดียวกับผู้ได้รับรางวัลโนเบล Stephen Fry และ Yuval Noah Harari Geoffrey Hinton และ Yoshua Bengio สองในสามคนที่มักถูกเรียกว่า “Godfathers of AI” เนื่องจากการทำงานพื้นฐานของพวกเขาในพื้นที่นี้ ก็ได้เพิ่มชื่อของพวกเขาในรายการด้วย

ทีนี้ เส้นแดงเหล่านั้นคืออะไร? นั่นยังขึ้นอยู่กับรัฐบาลที่จะตัดสินใจ ข้อเรียกร้องนี้ไม่ได้ระบุถึงนโยบายหรือข้อเสนอแนะที่เฉพาะเจาะจง แต่ก็ยกตัวอย่างสิ่งที่อาจเป็นเส้นแดง การห้ามการยิงอาวุธนิวเคลียร์หรือการใช้งานในความพยายามในการเฝ้าระวังจำนวนมากอาจเป็นเส้นแดงที่เป็นไปได้สำหรับการใช้งาน AI กลุ่มกล่าว ในขณะที่การห้ามการสร้าง AI ที่ไม่สามารถยุติได้ด้วยการควบคุมของมนุษย์จะเป็นเส้นแดงที่เป็นไปได้สำหรับพฤติกรรมของ AI แต่พวกเขาก็ชัดเจนมาก: อย่าตั้งสิ่งเหล่านี้ให้เป็นหิน พวกเขาเป็นเพียงตัวอย่าง คุณสามารถสร้างกฎของคุณเองได้

สิ่งเดียวที่กลุ่มนำเสนออย่างเป็นรูปธรรมคือ ข้อตกลงระดับโลกใด ๆ ควรสร้างขึ้นบนสามเสาหลัก: “รายการข้อห้ามที่ชัดเจน กลไกการตรวจสอบที่แข็งแกร่งและตรวจสอบได้ และการแต่งตั้งหน่วยงานอิสระที่จัดตั้งขึ้นโดยภาคีเพื่อดูแลการดำเนินการ”

อย่างไรก็ตาม รายละเอียดต่างๆ นั้นขึ้นอยู่กับรัฐบาลที่จะตกลงกัน และนั่นค่อนข้างเป็นส่วนที่ยาก การเรียกร้องแนะนำให้ประเทศต่างๆ จัดการประชุมสุดยอดและกลุ่มทำงานเพื่อแก้ไขปัญหาเหล่านี้ แต่แน่นอนว่ามีแรงจูงใจในการแข่งขันมากมายในการสนทนาเหล่านั้น

ตัวอย่างเช่น สหรัฐอเมริกาได้ให้คำมั่นสัญญาแล้วว่าจะ ไม่อนุญาตให้ AI ควบคุมอาวุธนิวเคลียร์ (ข้อตกลงที่ทำขึ้นภายใต้การบริหารของ Biden ดังนั้นพระเจ้าเท่านั้นที่รู้ว่าสิ่งนั้นยังคงมีผลบังคับใช้อยู่หรือไม่) แต่รายงานล่าสุดระบุว่าส่วนหนึ่งของชุมชนข่าวกรองของรัฐบาลทรัมป์ได้รู้สึกรำคาญไปแล้วกับข้อเท็จจริงที่ว่าบริษัท AI บางแห่ง จะไม่ยอมให้พวกเขาใช้เครื่องมือของตนสำหรับความพยายามในการเฝ้าระวังภายในประเทศ ดังนั้นอเมริกาจะขึ้นเรือเพื่อข้อเสนอดังกล่าวหรือไม่? บางทีเราจะพบกับสิ่งนั้นภายในสิ้นปี 2026 … ถ้าเราอยู่ถึงตอนนั้น

ผู้เชี่ยวชาญ AI เร่งรัฐบาลคิดหาทางออก

ทำไมผู้เชี่ยวชาญ AI เร่งรัฐบาลคิดหาทางออก?

การเรียกร้องจากผู้เชี่ยวชาญด้าน AI ที่ต้องการให้รัฐบาลทั่วโลกเร่งหาทางออกและข้อตกลงร่วมกันในการควบคุมการใช้งาน AI นั้นเป็นสัญญาณที่บ่งบอกถึงความกังวลอย่างแท้จริงเกี่ยวกับผลกระทบที่อาจเกิดขึ้นจากการพัฒนาเทคโนโลยีนี้อย่างรวดเร็ว การที่บุคคลสำคัญในวงการ AI รวมถึงผู้ได้รับรางวัลโนเบลและอดีตประธานาธิบดีเข้าร่วมลงชื่อในข้อเรียกร้องนี้ แสดงให้เห็นถึงความสำคัญของปัญหาและความจำเป็นในการดำเนินการอย่างเร่งด่วน การกำหนด “เส้นแดง” ที่ชัดเจนสำหรับการใช้งาน AI จะช่วยป้องกันการนำเทคโนโลยีนี้ไปใช้ในทางที่ผิด ซึ่งอาจนำไปสู่ผลกระทบที่ร้ายแรงต่อสังคมและมนุษยชาติ

การที่ข้อเรียกร้องเน้นย้ำถึงความจำเป็นในการมีกลไกการตรวจสอบที่แข็งแกร่งและการแต่งตั้งหน่วยงานอิสระเพื่อดูแลการดำเนินการ แสดงให้เห็นถึงความเข้าใจว่าการมีเพียงข้อตกลงอย่างเดียวนั้นไม่เพียงพอ การบังคับใช้ข้อตกลงและการตรวจสอบการปฏิบัติตามเป็นสิ่งสำคัญเพื่อให้มั่นใจว่าข้อตกลงนั้นมีประสิทธิภาพอย่างแท้จริง การมีหน่วยงานอิสระจะช่วยให้การกำกับดูแลเป็นไปอย่างโปร่งใสและเป็นกลาง

อย่างไรก็ตาม ความท้าทายที่สำคัญคือการทำให้รัฐบาลของประเทศต่างๆ เห็นพ้องต้องกันในรายละเอียดของข้อตกลง การมีแรงจูงใจที่แตกต่างกันและความขัดแย้งทางผลประโยชน์อาจทำให้การเจรจาเป็นไปอย่างยากลำบาก แต่การตระหนักถึงความเสี่ยงที่อาจเกิดขึ้นจากการไม่ดำเนินการใดๆ ควรเป็นแรงผลักดันให้รัฐบาลต่างๆ ร่วมมือกันเพื่อหาทางออกที่เป็นประโยชน์ร่วมกัน

การที่สหรัฐฯ ให้คำมั่นว่าจะไม่ให้ AI ควบคุมอาวุธนิวเคลียร์เป็นตัวอย่างที่ดีของการดำเนินการที่เป็นรูปธรรม แต่ความขัดแย้งภายในประเทศเกี่ยวกับการใช้งาน AI ในการเฝ้าระวังแสดงให้เห็นถึงความซับซ้อนของการตัดสินใจในเรื่องนี้ การสร้างสมดุลระหว่างความมั่นคงของชาติและสิทธิส่วนบุคคลเป็นสิ่งที่ท้าทาย แต่การมีกรอบการทำงานที่ชัดเจนสำหรับการใช้งาน AI จะช่วยให้การตัดสินใจเหล่านี้เป็นไปอย่างมีหลักการและโปร่งใส

โดยสรุปแล้ว การเรียกร้องจากผู้เชี่ยวชาญ AI เร่งรัฐบาลคิดหาทางออก ถือเป็นสัญญาณเตือนที่สำคัญที่กระตุ้นให้เราต้องพิจารณาอย่างจริงจังถึงผลกระทบที่อาจเกิดขึ้นจาก AI และดำเนินการอย่างเร่งด่วนเพื่อควบคุมการใช้งานเทคโนโลยีนี้ การร่วมมือกันในระดับโลกและการมีกรอบการทำงานที่ชัดเจนและมีประสิทธิภาพเป็นสิ่งสำคัญเพื่อให้มั่นใจว่า AI จะถูกนำไปใช้เพื่อประโยชน์ของมนุษยชาติอย่างแท้จริง

เราต้องจับตาดูกันต่อไปว่ารัฐบาลทั่วโลกจะสามารถบรรลุข้อตกลงที่ครอบคลุมและมีประสิทธิภาพได้หรือไม่ การดำเนินการอย่างทันท่วงทีและมีความรับผิดชอบเป็นสิ่งสำคัญเพื่อให้มั่นใจว่า AI จะเป็นพลังที่นำไปสู่ความก้าวหน้าและความเป็นอยู่ที่ดีของสังคม

ที่มา – AI Experts Urgently Call on Governments to Think About Maybe Doing SomethingLet’s just agree to something. Anything.

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *