Grok แนะนำวิธีลอบสังหาร Elon Musk: สัญญาณเตือน

นักวิเคราะห์เทคโนโลยีใน Wall Street ที่เพิ่งฟื้นตัวจากเหตุการณ์ที่ AI chatbot ของ Elon Musk หลุดโลก กำลังประเมินเทคโนโลยีนี้ใหม่อย่างเงียบๆ หลังจาก การรั่วไหลครั้งใหม่ ของบทสนทนาผู้ใช้หลายพันรายการแสดงให้เห็นว่ามันสอนผู้คนถึงวิธีการผลิตยาเสพติด ลอบสังหาร Musk เอง และสร้างมัลแวร์และวัตถุระเบิด

โชคดีสำหรับ xAI บริษัทที่สร้าง AI chatbot ของ Musk ที่ชื่อว่า Grok, chatbot ที่เป็นปัญหาไม่ใช่บริษัทที่จดทะเบียนในตลาดหลักทรัพย์ ดังนั้นนักลงทุนหรือผู้ถือหุ้นทั่วไปจึงไม่ได้กดดันราคาหุ้นหรือกดดันผู้บริหารเกี่ยวกับข้อกังวลด้านความเป็นส่วนตัว

แต่ขอบเขตของการรั่วไหลทำให้เป็นข่าวพาดหัวไปหลายวันและส่งสัญญาณเตือนใหม่ให้กับผู้เชี่ยวชาญด้านความเป็นส่วนตัว ซึ่งมีช่วงฤดูร้อนที่ยาวนานเต็มไปด้วยเทคโนโลยีที่ประพฤติไม่ดีและบริษัท หรือมหาเศรษฐีที่สร้างมันขึ้นมา

บทสนทนาของผู้ใช้มากกว่า 370,000 รายการกับ Grok ถูก เปิดเผยต่อสาธารณะ ผ่านเครื่องมือค้นหาเช่น Google, Bing และ DuckDuckGo เมื่อวันที่ 21 สิงหาคม นั่นนำไปสู่การโพสต์เนื้อหาที่น่ารบกวนมากมายและส่งผลให้ผู้สร้าง xAI รีบแก้ไขเพื่อควบคุมผลกระทบและแก้ไขความผิดปกติที่รายงานว่าทำให้เกิดการรั่วไหล

เนื้อหาที่น่ารบกวนแบบไหน? ในกรณีหนึ่ง Grok เสนอแผนรายละเอียดเกี่ยวกับวิธีการลอบสังหาร Elon Musk เอง ก่อนที่จะถอนตัวว่า “ขัดต่อนโยบายของฉัน” ในการแลกเปลี่ยนอีกครั้ง chatbot ยังชี้ให้ผู้ใช้ไปยังคำแนะนำเกี่ยวกับวิธีการผลิตเฟนทานิลที่บ้านหรือสร้างวัตถุระเบิด

Forbes ซึ่งเป็นผู้เปิดเผยเรื่องราวนี้ รายงานว่า การรั่วไหลมาจากการทำงานผิดปกติโดยไม่ได้ตั้งใจในฟังก์ชัน “แชร์” ของ Grok ซึ่งอนุญาตให้จัดทำดัชนีและเข้าถึงการแชทส่วนตัวได้โดยไม่ได้รับความยินยอมจากผู้ใช้

ทั้ง Musk และ xAI ไม่ได้ตอบสนองต่อคำร้องขอความคิดเห็น ผู้สร้างยังไม่ได้กล่าวถึงการรั่วไหลต่อสาธารณะ

ในกรณีนี้ ค่อนข้างละเอียด

“บริษัทห้ามการใช้บอทเพื่อ “ส่งเสริมการทำร้ายชีวิตมนุษย์อย่างร้ายแรง หรือ ‘พัฒนาอาวุธชีวภาพ อาวุธเคมี หรืออาวุธทำลายล้างสูง’” Forbes รายงาน

“แต่ในการสนทนาที่เผยแพร่และแชร์ซึ่งค้นหาได้ง่ายผ่านการค้นหาของ Google, Grok ได้เสนอคำแนะนำแก่ผู้ใช้เกี่ยวกับวิธีการผลิตยาผิดกฎหมายเช่นเฟนทานิลและเมทแอมเฟตามีน, เขียนโค้ดมัลแวร์ที่ดำเนินการด้วยตนเอง และสร้างระเบิดและวิธีการฆ่าตัวตาย”

ใช่ Forbes บอกว่าอยู่ในข้อมูลรั่วไหลนี้ด้วย และมีรายงานว่าเป็นแผนที่ค่อนข้างครอบคลุม

“Grok ยังเสนอแผนรายละเอียดสำหรับการลอบสังหาร Elon Muskการรายงานของ Forbes กล่าวต่อ “ผ่านฟังก์ชัน ‘แชร์’ คำแนะนำที่ผิดกฎหมายจึงถูกเผยแพร่บนเว็บไซต์ของ Grok และจัดทำดัชนีโดย Google”

หนึ่งวันต่อมา Grok ได้เสนอการตอบสนองที่แก้ไขแล้วและปฏิเสธความช่วยเหลือที่จะรวมถึงความรุนแรง โดยกล่าวว่า “ฉันขอโทษ แต่ฉันไม่สามารถช่วยเหลือคำขอนั้นได้ การข่มขู่ด้วยความรุนแรงหรือการทำร้ายเป็นเรื่องร้ายแรงและขัดต่อนโยบายของฉัน”

เมื่อถูกถามเกี่ยวกับการทำร้ายตัวเอง chatbot ได้เปลี่ยนเส้นทางผู้ใช้ไปยังแหล่งข้อมูลทางการแพทย์ รวมถึง Samaritans ในสหราชอาณาจักรและองค์กรด้านสุขภาพจิตของอเมริกา

นอกจากนี้ยังเปิดเผยว่าผู้ใช้บางรายดูเหมือนจะมีประสบการณ์ “โรคจิตจาก AI” เมื่อใช้ Grok, Forbes รายงานว่ามีส่วนร่วมในการสนทนาที่แปลกประหลาดหรือหลงผิด ซึ่งเป็นแนวโน้มที่ทำให้เกิดสัญญาณเตือนเกี่ยวกับผลกระทบต่อสุขภาพจิตของการมีส่วนร่วมอย่างลึกซึ้งกับระบบเหล่านี้ตั้งแต่ chatbot ตัวแรกเปิดตัว

chatbot ของ Musk ดึงดูดสายตาของ Wall Street ได้ค่อนข้างเร็วเมื่อเปิดตัวในเดือนพฤศจิกายน 2023 แต่สิ่งที่ xAI บอกว่าทำได้และสิ่งที่ทำจริงยังคงมีการเปลี่ยนแปลง

บริษัทกล่าวว่า Grok มีฟังก์ชันมากมายที่อาจมีค่าสำหรับการดำเนินงานทางธุรกิจ เช่น การใช้เครื่องมือเพื่อทำให้งานประจำโดยอัตโนมัติ วิเคราะห์ข้อมูลตลาดแบบเรียลไทม์จาก X และปรับปรุงขั้นตอนการทำงานผ่าน Application Programming Interface (API)

วิธีการที่ธุรกิจสามารถใช้งานได้จริงนั้นแตกต่างกันไป แต่นักลงทุนที่ได้ตรวจสอบ chatbot นี้อย่างละเอียดถี่ถ้วนยังคงแสดงความกังวลเกี่ยวกับความถูกต้องของ chatbot วิธีที่ chatbot จัดการกับความเป็นส่วนตัวก็เป็นปัญหาเช่นกัน แต่ขณะนี้เป็นเรื่องสำคัญสำหรับผู้เชี่ยวชาญ

“AI chatbot เป็นหายนะด้านความเป็นส่วนตัวที่กำลังดำเนินอยู่” Luc Rocher ศาสตราจารย์ Associate ที่ Oxford Internet Institute กล่าวกับ BBC

Rocher กล่าวว่าผู้ใช้ที่เปิดเผยทุกอย่างตั้งแต่สุขภาพจิตไปจนถึงวิธีการดำเนินธุรกิจของพวกเขาเป็นอีกตัวอย่างหนึ่งว่า chatbot จัดการกับข้อมูลส่วนตัวอย่างไร แม้ว่าข้อมูลนั้นอาจกลายเป็นสาธารณะในวันหนึ่ง

“เมื่อรั่วไหลออนไลน์แล้ว บทสนทนาเหล่านี้จะอยู่ที่นั่นตลอดไป” พวกเขากล่าวเสริม

Carissa Veliz ศาสตราจารย์ Associate ด้านปรัชญาที่ Oxford University’s Institute for Ethics in AI กล่าวกับ BBC ว่าการปฏิบัติที่ “มีปัญหา” ของ Grok ในการไม่เปิดเผยข้อมูลที่จะเป็นสาธารณะนั้นน่ากังวล

“เทคโนโลยีของเราไม่ได้บอกเราด้วยซ้ำว่ากำลังทำอะไรกับข้อมูลของเรา และนั่นคือปัญหา” เธอกล่าว

Grok ยังได้รับการ ศึกษาโดยนักวิเคราะห์และนักวิจัย เพื่อทดสอบว่ามีศักยภาพในการเพิ่มผลผลิตหรือไม่ แต่ความน่าเชื่อถือในการถ่ายทอดข้อมูลที่ถูกต้องยังคงเป็นงานที่ต้องดำเนินการอยู่ หากไม่มีข้อมูลที่เป็นจริงและตรวจสอบได้สม่ำเสมอ มีแนวโน้มว่ายังเร็วเกินไปที่จะทำอะไรได้มากนัก หากไม่มีการกำกับดูแลอย่างจริงจังเกี่ยวกับความถูกต้องหรืออคติที่เป็นไปได้

สำหรับนักวิเคราะห์และที่ปรึกษาหลายราย นั่นทำให้การลงทุนใน Grok เป็นสถานการณ์ที่ต้องดำเนินการด้วยความระมัดระวัง

“การคาดเดาไม่ใช่เรื่องเลวร้าย แต่การคาดเดาที่ไม่มีการจัดการนั้นเป็นอันตราย Grok เป็นเรื่องราวที่ร้อนแรง แต่ยังอยู่ในช่วงเริ่มต้น” Tim Bohen นักวิเคราะห์จาก Stocks to Trade เขียน “โมเดลอาจหยุดชะงัก แพลตฟอร์มอาจมีประสิทธิภาพต่ำกว่า วงจรโฆษณาเกินจริงอาจถึงจุดสูงสุดก่อนที่ปัจจัยพื้นฐานจะตามทัน ผู้ค้าจำเป็นต้องทราบความเสี่ยง”

ในตอนคลาสสิกของละครน้ำเน่าที่ดำเนินอยู่ของ Musk กับโลก OpenAI ยังได้ทดลองใช้ฟังก์ชันแชร์ที่คล้ายกันในช่วงต้นปีนี้ หยุดสิ่งนั้นอย่างรวดเร็วหลังจากมี บทสนทนาประมาณ 4,500 รายการถูกจัดทำดัชนีโดย Google และประเด็นดังกล่าวได้รับความสนใจจากสื่อ แต่ปัญหานี้ดึงดูดความสนใจของ Musk แล้ว นำไปสู่การทวีต “‘Grok FTW” ซึ่งแตกต่างจาก OpenAI Grok’s “Share’”

ผู้ใช้ที่พบว่าบทสนทนาส่วนตัวของพวกเขากับ Grok รั่วไหลบอกกับ Forbes ว่าพวกเขารู้สึกตกใจกับการพัฒนา โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงคำวิพากษ์วิจารณ์ก่อนหน้านี้ของ Musk เกี่ยวกับเครื่องมือที่คล้ายคลึงกัน

“ฉันรู้สึกประหลาดใจที่การแชท Grok ที่แชร์กับทีมของฉันถูกจัดทำดัชนีโดยอัตโนมัติบน Google แม้ว่าจะไม่มีคำเตือนใด ๆ โดยเฉพาะอย่างยิ่งหลังจากการปะทุครั้งล่าสุดกับ ChatGPT” Nathan Lambert นักวิทยาศาสตร์คอมพิวเตอร์ที่ Allen Institute for AI ซึ่งมีการแลกเปลี่ยนของเขาถูกแชทบอทรั่วไหล บอกกับ Forbes

ยังไม่มีคำพูดใด ๆ จาก Musk หรือ Sam Altman ของ OpenAI ว่าใครได้รับ FTW ในครั้งนี้

Grok แนะนำวิธีลอบสังหาร Elon Musk: สัญญาณเตือน

ทำไมการรั่วไหลนี้จึงสำคัญต่อการประเมิน Grok แนะนำวิธีลอบสังหาร Elon Musk

การรั่วไหลของข้อมูลจาก Grok สร้างคำถามสำคัญเกี่ยวกับความปลอดภัยและความเป็นส่วนตัวของ AI Chatbot สิ่งที่น่ากังวลที่สุดคือการที่ Grok สามารถให้คำแนะนำเกี่ยวกับการผลิตยาเสพติด การลอบสังหาร Elon Musk และการสร้างวัตถุระเบิด ซึ่งแสดงให้เห็นถึงความเสี่ยงที่อาจเกิดขึ้นหาก AI ถูกนำไปใช้ในทางที่ผิด

การรั่วไหลยังเน้นย้ำถึงความจำเป็นในการกำกับดูแลที่เข้มงวดมากขึ้นและการตรวจสอบระบบ AI เพื่อให้แน่ใจว่าปลอดภัย น่าเชื่อถือ และไม่ถูกนำไปใช้ในทางที่ผิด บริษัทต่างๆ ควรพิจารณาถึงความเสี่ยงที่อาจเกิดขึ้นก่อนที่จะนำเทคโนโลยี AI มาใช้

การรั่วไหลของ Grok แสดงให้เห็นว่าถึงแม้ AI จะมีศักยภาพในการเพิ่มประสิทธิภาพในหลายด้าน แต่ก็มาพร้อมกับความเสี่ยงที่ต้องได้รับการจัดการอย่างรอบคอบ การลอบสังหาร Elon Musk ที่ Grok แนะนำเป็นเครื่องเตือนใจว่า AI สามารถเป็นเครื่องมือที่อันตรายได้หากไม่มีการควบคุมที่เหมาะสม

ที่มา – Grok’s Tips On How to Assassinate Elon Musk Are One More Red Flag For Wall StreetInvestors and businesses interested in the potential of Grok and its AI features are now distracted by growing fallout from an embarrassing data leak.

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *