เตรียมตัว! การแฮก AI กำลังมาถึง
คิดให้ดีก่อนที่คุณจะขอให้ Google Gemini AI สรุปตารางเวลาของคุณ เพราะอาจนำไปสู่การสูญเสียการควบคุมอุปกรณ์สมาร์ททั้งหมดของคุณ ในงานนำเสนอที่ Black Hat USA การประชุมประจำปีด้านความปลอดภัยทางไซเบอร์ในลาสเวกัส กลุ่มนักวิจัยได้แสดงให้เห็น ว่าผู้โจมตีสามารถใส่คำสั่งที่ซ่อนอยู่ในการเชิญ Google Calendar ที่เรียบง่าย และใช้มันเพื่อจี้อุปกรณ์สมาร์ท ซึ่งเป็นตัวอย่างของเวกเตอร์การโจมตีที่กำลังเติบโต นั่นคือการโจมตีแบบ prompt injection
แฮ็กนี้ระบุไว้ในเอกสารชื่อ “Invitation Is All You Need!” นักวิจัยได้วางเคล็ดลับ 14 วิธีที่พวกเขาสามารถจัดการ Gemini ผ่าน prompt injection ซึ่งเป็นการโจมตีประเภทหนึ่งที่ใช้ prompts ที่เป็นอันตรายและมักซ่อนอยู่ เพื่อทำให้โมเดลภาษาขนาดใหญ่สร้างผลลัพธ์ที่เป็นอันตราย
สิ่งที่น่าตกใจที่สุดคือ การโจมตีที่จัดการจี้เครื่องใช้และอุปกรณ์เสริมที่เชื่อมต่ออินเทอร์เน็ตได้ ทำทุกอย่างตั้งแต่ปิดไฟไปจนถึงเปิดหม้อไอน้ำ หรือก็คือการแย่งชิงการควบคุมบ้านจากเจ้าของและอาจทำให้พวกเขาตกอยู่ในสถานการณ์ที่เป็นอันตรายหรือประนีประนอม อื่น ๆ การโจมตีที่ทำให้ Gemini เริ่มการโทร Zoom สกัดรายละเอียดจากอีเมลและดาวน์โหลดไฟล์จากเว็บเบราว์เซอร์ของโทรศัพท์
การโจมตีส่วนใหญ่เริ่มต้นด้วยสิ่งที่เรียบง่าย เช่น การเชิญ Google Calendar ที่มีพิษด้วย prompt injections ซึ่งเมื่อเปิดใช้งานแล้ว จะทำให้โมเดล AI มีส่วนร่วมในพฤติกรรมที่เลี่ยงโปรโตคอลความปลอดภัยในตัว และนี่ไม่ใช่ตัวอย่างแรกที่นักวิจัยด้านความปลอดภัยได้รวบรวมเพื่อแสดงให้เห็นถึงช่องโหว่ที่อาจเกิดขึ้นของ LLM คนอื่น ๆ ใช้ prompt injection เพื่อ จี้ผู้ช่วยเขียนโค้ดเช่น Cursor เมื่อเดือนที่แล้ว เครื่องมือเขียนโค้ดของ Amazon ถูกแทรกซึมโดยแฮ็กเกอร์ ที่สั่งให้ลบไฟล์ออกจากเครื่องที่กำลังทำงานอยู่
นอกจากนี้ยังเป็นที่ชัดเจนมากขึ้นเรื่อย ๆ ว่าโมเดล AI ดูเหมือนจะมีส่วนร่วมกับคำสั่งที่ซ่อนอยู่ เอกสารล่าสุดพบว่าโมเดล AI ที่ใช้ในการฝึกอบรมโมเดลอื่น ๆ ส่งต่อความแปลกประหลาดและความชอบ แม้ว่าการอ้างอิงถึงความชอบดังกล่าวจะถูกกรองออกไปในข้อมูล ซึ่งบ่งชี้ว่าอาจมีการส่งข้อความระหว่างเครื่องที่ไม่สามารถสังเกตได้โดยตรง
LLM ส่วนใหญ่ยังคงเป็นกล่องดำ แต่ถ้าคุณเป็นผู้ไม่ประสงค์ดี คุณไม่จำเป็นต้องเข้าใจว่าเกิดอะไรขึ้นภายใต้ประทุน คุณเพียงแค่ต้องรู้วิธีส่งข้อความเข้าไปที่จะทำให้เครื่องทำงานในลักษณะที่เฉพาะเจาะจง ในกรณีของการโจมตีเหล่านี้ นักวิจัยได้แจ้งให้ Google ทราบถึงช่องโหว่ และบริษัทได้แก้ไขปัญหาตาม Wired แต่เมื่อ AI ถูกรวมเข้ากับแพลตฟอร์มมากขึ้นและพื้นที่อื่นๆ ในชีวิตของผู้คนทั่วไปมากขึ้น ความเสี่ยงที่จุดอ่อนดังกล่าวจะปรากฏขึ้นยิ่งมากขึ้น เป็นเรื่องที่น่ากังวลเป็นพิเศษเมื่อเอเจนต์ AI ซึ่งมีความสามารถในการโต้ตอบกับแอปและเว็บไซต์เพื่อทำภารกิจหลายขั้นตอนให้เสร็จสมบูรณ์ เริ่มเปิดตัว อะไรจะผิดพลาดได้บ้าง
เตรียมตัว! การแฮก AI กำลังมาถึง
ทำไมคุณต้องเตรียมรับมือกับ การแฮก AI กำลังมาถึง
จากรายงานล่าสุด แสดงให้เห็นว่าช่องโหว่ใน AI models นั้นมีอยู่จริง และสามารถถูกโจมตีได้ง่ายกว่าที่เราคิด ซึ่งการโจมตีเหล่านี้อาจส่งผลกระทบต่ออุปกรณ์สมาร์ทโฮมของเรา ข้อมูลส่วนตัว หรือแม้แต่การเงินของเราได้ สิ่งสำคัญคือเราต้องตระหนักถึงความเสี่ยงเหล่านี้และเตรียมพร้อมรับมือ
Prompt injection เป็นหนึ่งในวิธีการโจมตีที่น่ากลัวที่สุด เพราะมันสามารถหลอก AI ให้ทำในสิ่งที่เราไม่ต้องการได้ ยกตัวอย่างเช่น แฮกเกอร์สามารถใช้ prompt injection เพื่อสั่งให้ AI เปิดประตูบ้านให้เขา หรือโอนเงินจากบัญชีธนาคารของเรา
ดังนั้น สิ่งที่เราทำได้คืออะไร? ก่อนอื่น เราต้องระมัดระวังในการใช้งาน AI และตรวจสอบให้แน่ใจว่าเราเข้าใจถึงความเสี่ยงที่เกี่ยวข้อง นอกจากนี้ เรายังสามารถใช้เครื่องมือและเทคนิคต่างๆ เพื่อป้องกันตัวเองจากการโจมตีแบบ prompt injection ได้
การที่ การแฮก AI กำลังมาถึง ไม่ใช่เรื่องน่าตกใจ แต่เป็นสัญญาณเตือนให้เราต้องพัฒนาความรู้และทักษะในการป้องกันตัวเองจากภัยคุกคามทางไซเบอร์ที่ซับซ้อนมากขึ้น
การดูแลรักษาความปลอดภัยของข้อมูลและอุปกรณ์ของเราจึงเป็นสิ่งที่สำคัญอย่างยิ่งในยุคที่ AI กำลังเข้ามามีบทบาทในชีวิตประจำวันของเรามากขึ้นเรื่อย ๆ ดังนั้น การเตรียมพร้อมสำหรับ การแฮก AI กำลังมาถึง จึงเป็นสิ่งที่ทุกคนควรให้ความสำคัญ
ที่มา – Get Ready, the AI Hacks Are ComingArtificial intelligence, very real vulnerabilities.