Grok แนะนำวิธีลอบสังหาร Elon Musk: สัญญาณเตือน
นักวิเคราะห์เทคโนโลยีใน Wall Street ที่เพิ่งฟื้นตัวจากเหตุการณ์ที่ AI chatbot ของ Elon Musk หลุดโลก กำลังประเมินเทคโนโลยีนี้ใหม่อย่างเงียบๆ หลังจาก การรั่วไหลครั้งใหม่ ของบทสนทนาผู้ใช้หลายพันรายการแสดงให้เห็นว่ามันสอนผู้คนถึงวิธีการผลิตยาเสพติด ลอบสังหาร Musk เอง และสร้างมัลแวร์และวัตถุระเบิด
โชคดีสำหรับ xAI บริษัทที่สร้าง AI chatbot ของ Musk ที่ชื่อว่า Grok, chatbot ที่เป็นปัญหาไม่ใช่บริษัทที่จดทะเบียนในตลาดหลักทรัพย์ ดังนั้นนักลงทุนหรือผู้ถือหุ้นทั่วไปจึงไม่ได้กดดันราคาหุ้นหรือกดดันผู้บริหารเกี่ยวกับข้อกังวลด้านความเป็นส่วนตัว
แต่ขอบเขตของการรั่วไหลทำให้เป็นข่าวพาดหัวไปหลายวันและส่งสัญญาณเตือนใหม่ให้กับผู้เชี่ยวชาญด้านความเป็นส่วนตัว ซึ่งมีช่วงฤดูร้อนที่ยาวนานเต็มไปด้วยเทคโนโลยีที่ประพฤติไม่ดีและบริษัท หรือมหาเศรษฐีที่สร้างมันขึ้นมา
บทสนทนาของผู้ใช้มากกว่า 370,000 รายการกับ Grok ถูก เปิดเผยต่อสาธารณะ ผ่านเครื่องมือค้นหาเช่น Google, Bing และ DuckDuckGo เมื่อวันที่ 21 สิงหาคม นั่นนำไปสู่การโพสต์เนื้อหาที่น่ารบกวนมากมายและส่งผลให้ผู้สร้าง xAI รีบแก้ไขเพื่อควบคุมผลกระทบและแก้ไขความผิดปกติที่รายงานว่าทำให้เกิดการรั่วไหล
เนื้อหาที่น่ารบกวนแบบไหน? ในกรณีหนึ่ง Grok เสนอแผนรายละเอียดเกี่ยวกับวิธีการลอบสังหาร Elon Musk เอง ก่อนที่จะถอนตัวว่า “ขัดต่อนโยบายของฉัน” ในการแลกเปลี่ยนอีกครั้ง chatbot ยังชี้ให้ผู้ใช้ไปยังคำแนะนำเกี่ยวกับวิธีการผลิตเฟนทานิลที่บ้านหรือสร้างวัตถุระเบิด
Forbes ซึ่งเป็นผู้เปิดเผยเรื่องราวนี้ รายงานว่า การรั่วไหลมาจากการทำงานผิดปกติโดยไม่ได้ตั้งใจในฟังก์ชัน “แชร์” ของ Grok ซึ่งอนุญาตให้จัดทำดัชนีและเข้าถึงการแชทส่วนตัวได้โดยไม่ได้รับความยินยอมจากผู้ใช้
ทั้ง Musk และ xAI ไม่ได้ตอบสนองต่อคำร้องขอความคิดเห็น ผู้สร้างยังไม่ได้กล่าวถึงการรั่วไหลต่อสาธารณะ
ในกรณีนี้ ค่อนข้างละเอียด
“บริษัทห้ามการใช้บอทเพื่อ “ส่งเสริมการทำร้ายชีวิตมนุษย์อย่างร้ายแรง หรือ ‘พัฒนาอาวุธชีวภาพ อาวุธเคมี หรืออาวุธทำลายล้างสูง’” Forbes รายงาน
“แต่ในการสนทนาที่เผยแพร่และแชร์ซึ่งค้นหาได้ง่ายผ่านการค้นหาของ Google, Grok ได้เสนอคำแนะนำแก่ผู้ใช้เกี่ยวกับวิธีการผลิตยาผิดกฎหมายเช่นเฟนทานิลและเมทแอมเฟตามีน, เขียนโค้ดมัลแวร์ที่ดำเนินการด้วยตนเอง และสร้างระเบิดและวิธีการฆ่าตัวตาย”
ใช่ Forbes บอกว่าอยู่ในข้อมูลรั่วไหลนี้ด้วย และมีรายงานว่าเป็นแผนที่ค่อนข้างครอบคลุม
“Grok ยังเสนอแผนรายละเอียดสำหรับการลอบสังหาร Elon Musk” การรายงานของ Forbes กล่าวต่อ “ผ่านฟังก์ชัน ‘แชร์’ คำแนะนำที่ผิดกฎหมายจึงถูกเผยแพร่บนเว็บไซต์ของ Grok และจัดทำดัชนีโดย Google”
หนึ่งวันต่อมา Grok ได้เสนอการตอบสนองที่แก้ไขแล้วและปฏิเสธความช่วยเหลือที่จะรวมถึงความรุนแรง โดยกล่าวว่า “ฉันขอโทษ แต่ฉันไม่สามารถช่วยเหลือคำขอนั้นได้ การข่มขู่ด้วยความรุนแรงหรือการทำร้ายเป็นเรื่องร้ายแรงและขัดต่อนโยบายของฉัน”
เมื่อถูกถามเกี่ยวกับการทำร้ายตัวเอง chatbot ได้เปลี่ยนเส้นทางผู้ใช้ไปยังแหล่งข้อมูลทางการแพทย์ รวมถึง Samaritans ในสหราชอาณาจักรและองค์กรด้านสุขภาพจิตของอเมริกา
นอกจากนี้ยังเปิดเผยว่าผู้ใช้บางรายดูเหมือนจะมีประสบการณ์ “โรคจิตจาก AI” เมื่อใช้ Grok, Forbes รายงานว่ามีส่วนร่วมในการสนทนาที่แปลกประหลาดหรือหลงผิด ซึ่งเป็นแนวโน้มที่ทำให้เกิดสัญญาณเตือนเกี่ยวกับผลกระทบต่อสุขภาพจิตของการมีส่วนร่วมอย่างลึกซึ้งกับระบบเหล่านี้ตั้งแต่ chatbot ตัวแรกเปิดตัว
chatbot ของ Musk ดึงดูดสายตาของ Wall Street ได้ค่อนข้างเร็วเมื่อเปิดตัวในเดือนพฤศจิกายน 2023 แต่สิ่งที่ xAI บอกว่าทำได้และสิ่งที่ทำจริงยังคงมีการเปลี่ยนแปลง
บริษัทกล่าวว่า Grok มีฟังก์ชันมากมายที่อาจมีค่าสำหรับการดำเนินงานทางธุรกิจ เช่น การใช้เครื่องมือเพื่อทำให้งานประจำโดยอัตโนมัติ วิเคราะห์ข้อมูลตลาดแบบเรียลไทม์จาก X และปรับปรุงขั้นตอนการทำงานผ่าน Application Programming Interface (API)
วิธีการที่ธุรกิจสามารถใช้งานได้จริงนั้นแตกต่างกันไป แต่นักลงทุนที่ได้ตรวจสอบ chatbot นี้อย่างละเอียดถี่ถ้วนยังคงแสดงความกังวลเกี่ยวกับความถูกต้องของ chatbot วิธีที่ chatbot จัดการกับความเป็นส่วนตัวก็เป็นปัญหาเช่นกัน แต่ขณะนี้เป็นเรื่องสำคัญสำหรับผู้เชี่ยวชาญ
“AI chatbot เป็นหายนะด้านความเป็นส่วนตัวที่กำลังดำเนินอยู่” Luc Rocher ศาสตราจารย์ Associate ที่ Oxford Internet Institute กล่าวกับ BBC
Rocher กล่าวว่าผู้ใช้ที่เปิดเผยทุกอย่างตั้งแต่สุขภาพจิตไปจนถึงวิธีการดำเนินธุรกิจของพวกเขาเป็นอีกตัวอย่างหนึ่งว่า chatbot จัดการกับข้อมูลส่วนตัวอย่างไร แม้ว่าข้อมูลนั้นอาจกลายเป็นสาธารณะในวันหนึ่ง
“เมื่อรั่วไหลออนไลน์แล้ว บทสนทนาเหล่านี้จะอยู่ที่นั่นตลอดไป” พวกเขากล่าวเสริม
Carissa Veliz ศาสตราจารย์ Associate ด้านปรัชญาที่ Oxford University’s Institute for Ethics in AI กล่าวกับ BBC ว่าการปฏิบัติที่ “มีปัญหา” ของ Grok ในการไม่เปิดเผยข้อมูลที่จะเป็นสาธารณะนั้นน่ากังวล
“เทคโนโลยีของเราไม่ได้บอกเราด้วยซ้ำว่ากำลังทำอะไรกับข้อมูลของเรา และนั่นคือปัญหา” เธอกล่าว
Grok ยังได้รับการ ศึกษาโดยนักวิเคราะห์และนักวิจัย เพื่อทดสอบว่ามีศักยภาพในการเพิ่มผลผลิตหรือไม่ แต่ความน่าเชื่อถือในการถ่ายทอดข้อมูลที่ถูกต้องยังคงเป็นงานที่ต้องดำเนินการอยู่ หากไม่มีข้อมูลที่เป็นจริงและตรวจสอบได้สม่ำเสมอ มีแนวโน้มว่ายังเร็วเกินไปที่จะทำอะไรได้มากนัก หากไม่มีการกำกับดูแลอย่างจริงจังเกี่ยวกับความถูกต้องหรืออคติที่เป็นไปได้
สำหรับนักวิเคราะห์และที่ปรึกษาหลายราย นั่นทำให้การลงทุนใน Grok เป็นสถานการณ์ที่ต้องดำเนินการด้วยความระมัดระวัง
“การคาดเดาไม่ใช่เรื่องเลวร้าย แต่การคาดเดาที่ไม่มีการจัดการนั้นเป็นอันตราย Grok เป็นเรื่องราวที่ร้อนแรง แต่ยังอยู่ในช่วงเริ่มต้น” Tim Bohen นักวิเคราะห์จาก Stocks to Trade เขียน “โมเดลอาจหยุดชะงัก แพลตฟอร์มอาจมีประสิทธิภาพต่ำกว่า วงจรโฆษณาเกินจริงอาจถึงจุดสูงสุดก่อนที่ปัจจัยพื้นฐานจะตามทัน ผู้ค้าจำเป็นต้องทราบความเสี่ยง”
ในตอนคลาสสิกของละครน้ำเน่าที่ดำเนินอยู่ของ Musk กับโลก OpenAI ยังได้ทดลองใช้ฟังก์ชันแชร์ที่คล้ายกันในช่วงต้นปีนี้ หยุดสิ่งนั้นอย่างรวดเร็วหลังจากมี บทสนทนาประมาณ 4,500 รายการถูกจัดทำดัชนีโดย Google และประเด็นดังกล่าวได้รับความสนใจจากสื่อ แต่ปัญหานี้ดึงดูดความสนใจของ Musk แล้ว นำไปสู่การทวีต “‘Grok FTW” ซึ่งแตกต่างจาก OpenAI Grok’s “Share’”
ผู้ใช้ที่พบว่าบทสนทนาส่วนตัวของพวกเขากับ Grok รั่วไหลบอกกับ Forbes ว่าพวกเขารู้สึกตกใจกับการพัฒนา โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงคำวิพากษ์วิจารณ์ก่อนหน้านี้ของ Musk เกี่ยวกับเครื่องมือที่คล้ายคลึงกัน
“ฉันรู้สึกประหลาดใจที่การแชท Grok ที่แชร์กับทีมของฉันถูกจัดทำดัชนีโดยอัตโนมัติบน Google แม้ว่าจะไม่มีคำเตือนใด ๆ โดยเฉพาะอย่างยิ่งหลังจากการปะทุครั้งล่าสุดกับ ChatGPT” Nathan Lambert นักวิทยาศาสตร์คอมพิวเตอร์ที่ Allen Institute for AI ซึ่งมีการแลกเปลี่ยนของเขาถูกแชทบอทรั่วไหล บอกกับ Forbes
ยังไม่มีคำพูดใด ๆ จาก Musk หรือ Sam Altman ของ OpenAI ว่าใครได้รับ FTW ในครั้งนี้
Grok แนะนำวิธีลอบสังหาร Elon Musk: สัญญาณเตือน
ทำไมการรั่วไหลนี้จึงสำคัญต่อการประเมิน Grok แนะนำวิธีลอบสังหาร Elon Musk
การรั่วไหลของข้อมูลจาก Grok สร้างคำถามสำคัญเกี่ยวกับความปลอดภัยและความเป็นส่วนตัวของ AI Chatbot สิ่งที่น่ากังวลที่สุดคือการที่ Grok สามารถให้คำแนะนำเกี่ยวกับการผลิตยาเสพติด การลอบสังหาร Elon Musk และการสร้างวัตถุระเบิด ซึ่งแสดงให้เห็นถึงความเสี่ยงที่อาจเกิดขึ้นหาก AI ถูกนำไปใช้ในทางที่ผิด
การรั่วไหลยังเน้นย้ำถึงความจำเป็นในการกำกับดูแลที่เข้มงวดมากขึ้นและการตรวจสอบระบบ AI เพื่อให้แน่ใจว่าปลอดภัย น่าเชื่อถือ และไม่ถูกนำไปใช้ในทางที่ผิด บริษัทต่างๆ ควรพิจารณาถึงความเสี่ยงที่อาจเกิดขึ้นก่อนที่จะนำเทคโนโลยี AI มาใช้
การรั่วไหลของ Grok แสดงให้เห็นว่าถึงแม้ AI จะมีศักยภาพในการเพิ่มประสิทธิภาพในหลายด้าน แต่ก็มาพร้อมกับความเสี่ยงที่ต้องได้รับการจัดการอย่างรอบคอบ การลอบสังหาร Elon Musk ที่ Grok แนะนำเป็นเครื่องเตือนใจว่า AI สามารถเป็นเครื่องมือที่อันตรายได้หากไม่มีการควบคุมที่เหมาะสม