DeepSeek เลี่ยงประเด็นอ่อนไหว เกือบ 100%

พบกับ DeepSeek รุ่นใหม่ ที่ปฏิบัติตามข้อกำหนดของรัฐบาลมากขึ้น จากรายงานของรอยเตอร์ แบบจำลองภาษาขนาดใหญ่ยอดนิยมที่พัฒนาในจีนมีรุ่นใหม่ชื่อ DeepSeek-R1-Safe ซึ่งออกแบบมาเพื่อหลีกเลี่ยงหัวข้อที่ละเอียดอ่อนทางการเมืองโดยเฉพาะ โมเดลใหม่นี้พัฒนาโดย Huawei ยักษ์ใหญ่ด้านเทคโนโลยีของจีน มีรายงานว่า “ประสบความสำเร็จเกือบ 100%” ในการป้องกันการอภิปรายในเรื่องที่ละเอียดอ่อนทางการเมือง

จากรายงาน Huawei และนักวิจัยจากมหาวิทยาลัยเจ้อเจียง (ที่น่าสนใจคือ DeepSeek ไม่ได้มีส่วนร่วมในโครงการ) ได้นำโมเดลโอเพนซอร์ส DeepSeek R1 มาฝึกฝนโดยใช้ชิป AI Ascend ของ Huawei จำนวน 1,000 ชิป เพื่อปลูกฝังให้โมเดลมีความอดทนน้อยลงสำหรับการสนทนาที่ก่อให้เกิดข้อโต้แย้ง รุ่นใหม่นี้ ซึ่ง Huawei อ้างว่าสูญเสียความเร็วและขีดความสามารถของโมเดลเดิมไปเพียงประมาณ 1% เท่านั้น มีความพร้อมที่ดีกว่าในการหลีกเลี่ยง “คำพูดที่เป็นพิษและเป็นอันตราย เนื้อหาที่ละเอียดอ่อนทางการเมือง และการยุยงให้เกิดกิจกรรมที่ผิดกฎหมาย”

แม้ว่าโมเดลอาจจะปลอดภัยกว่า แต่ก็ยังไม่สมบูรณ์แบบ แม้ว่าบริษัทจะอ้างว่ามีอัตราความสำเร็จใกล้เคียง 100% ในการใช้งานขั้นพื้นฐาน แต่ก็พบว่าความสามารถของโมเดลในการหลีกเลี่ยงการสนทนาที่น่าสงสัยลดลงเหลือเพียง 40% เมื่อผู้ใช้ปลอมแปลงความต้องการของตนในการท้าทายหรือสถานการณ์การสวมบทบาท โมเดล AI เหล่านี้ชอบที่จะเล่นตามสถานการณ์สมมติที่ ช่วยให้พวกเขาขัดขวางการป้องกัน

DeepSeek-R1-Safe ได้รับการออกแบบมาเพื่อให้สอดคล้องกับข้อกำหนดของหน่วยงานกำกับดูแลของจีน ตามรายงานของรอยเตอร์ ซึ่งกำหนดให้โมเดล AI ในประเทศทั้งหมดที่เผยแพร่สู่สาธารณะต้อง สะท้อนถึงค่านิยมของประเทศ และปฏิบัติตามข้อจำกัดด้านการพูด แชทบอท Ernie ของบริษัท Baidu ของจีน เช่น มีรายงานว่า จะไม่ตอบคำถามเกี่ยวกับการเมืองภายในประเทศของจีน หรือพรรครัฐบาลคอมมิวนิสต์จีน

แน่นอนว่าจีนไม่ใช่ประเทศเดียวที่ต้องการตรวจสอบให้แน่ใจว่า AI ที่ใช้งานภายในพรมแดนของตนจะไม่สร้างปัญหามากเกินไป เมื่อต้นปีนี้ Humain บริษัทเทคโนโลยีของซาอุดีอาระเบียได้เปิดตัว แชทบอทที่ใช้ภาษาอาหรับ ซึ่งเชี่ยวชาญในภาษาอาหรับและได้รับการฝึกฝนให้สะท้อนถึง “วัฒนธรรม ค่านิยม และมรดกอิสลาม” โมเดลที่ผลิตในอเมริกันก็ไม่ได้ปลอดภัยจากสิ่งนี้เช่นกัน OpenAI ระบุอย่างชัดเจน ว่า ChatGPT “bias ไปทางมุมมองของตะวันตก”

และยังมีอเมริกาภายใต้การบริหารของทรัมป์ เมื่อต้นปีนี้ ทรัมป์ได้ประกาศ แผนปฏิบัติการ AI ของอเมริกา ซึ่งรวมถึงข้อกำหนดที่ว่าโมเดล AI ใดๆ ที่โต้ตอบกับหน่วยงานของรัฐจะต้องมีความเป็นกลางและ “ไม่ bias” นั่นหมายความว่าอะไรกันแน่? ตามคำสั่งผู้บริหารที่ลงนามโดยทรัมป์ โมเดลที่รักษาความปลอดภัยให้กับสัญญารัฐบาลจะต้องปฏิเสธสิ่งต่างๆ เช่น “หลักคำสอนสภาพอากาศที่รุนแรง” “ความหลากหลาย ความเสมอภาค และการรวม” และแนวคิดต่างๆ เช่น “ทฤษฎีการแข่งขันที่สำคัญ, transgenderism, bias ที่ไม่รู้ตัว, intersectionality และการเหยียดเชื้อชาติเชิงระบบ” ดังนั้นก่อนที่จะวิพากษ์วิจารณ์จีน เป็นการดีที่สุดที่เราจะมองในกระจกเสียก่อน

DeepSeek เลี่ยงประเด็นอ่อนไหว เกือบ 100%

DeepSeek เลี่ยงประเด็นอ่อนไหว

การที่ DeepSeek พัฒนาโมเดลที่สามารถ DeepSeek เลี่ยงประเด็นอ่อนไหว เกือบ 100% นั้น แสดงให้เห็นถึงความท้าทายในการพัฒนา AI ที่เป็นกลางและสอดคล้องกับค่านิยมทางวัฒนธรรมและกฎหมายที่แตกต่างกันในแต่ละประเทศ การจำกัดการเข้าถึงข้อมูล หรือการเซ็นเซอร์เนื้อหา อาจส่งผลกระทบต่อความสามารถของ AI ในการเรียนรู้ การวิเคราะห์ และการสร้างข้อมูลใหม่ๆ ได้อย่างอิสระ นอกจากนี้ การพยายามทำให้ AI เป็นกลางอย่างสมบูรณ์ อาจเป็นเรื่องที่เป็นไปไม่ได้ เนื่องจากข้อมูลที่ใช้ในการฝึกฝนโมเดลนั้น มักจะสะท้อนถึงมุมมองและความเชื่อของผู้สร้างอยู่เสมอ

แล้วอนาคตของ AI จะเป็นอย่างไร? จะมีโมเดล AI ที่เป็นสากลและเป็นกลางอย่างแท้จริงหรือไม่? หรือเราจะต้องยอมรับว่า AI จะมีความแตกต่างกันไปตามภูมิภาคและวัฒนธรรม? การถกเถียงและหารือกันในประเด็นเหล่านี้เป็นสิ่งสำคัญ เพื่อให้เราสามารถพัฒนา AI ที่เป็นประโยชน์ต่อสังคมโดยรวม โดยไม่ละเลยความหลากหลายและความแตกต่างทางวัฒนธรรม

ที่มา – DeepSeek Model ‘Nearly 100% Successful’ at Avoiding Controversial TopicsHuawei chipped in on the censorship effort.

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *