ภาพ AI บิดเบือน: โจมตีบอนไดเป็นเรื่องจัดฉาก

โซเชียลมีเดียกำลังเต็มไปด้วยข้อมูลเท็จเกี่ยวกับการโจมตีที่บอนไดบีชเมื่อวันอาทิตย์ที่ผ่านมา ซึ่งทำให้มีผู้เสียชีวิต 15 คนและบาดเจ็บอีกหลายสิบคน หนึ่งในนั้นคือภาพที่สร้างโดย AI ซึ่งกำลังแพร่หลายในหมู่คนที่เผยแพร่ข้อมูลที่ไม่ถูกต้องบน X

ภาพที่สมจริงนี้สร้างขึ้นเพื่อให้ดูเหมือนว่าเหยื่อรายหนึ่งกำลังทาเลือดปลอมก่อนการโจมตี แต่ทุกอย่างในภาพนั้นไม่เป็นความจริง สิ่งที่แย่ไปกว่านั้นคือเครื่องมือที่ผู้คนใช้ตรวจสอบความถูกต้องของภาพ กลับบอกว่าภาพนี้เป็นของจริง

Arsen Ostrovsky ทนายความชาวอิสราเอลที่เพิ่งย้ายมาออสเตรเลียเมื่อไม่กี่สัปดาห์ก่อน ได้ให้สัมภาษณ์กับ Nine News ของออสเตรเลียในที่เกิดเหตุเมื่อวันอาทิตย์ ศีรษะของ Ostrovsky พันด้วยผ้าพันแผลและใบหน้าของเขาเต็มไปด้วยเลือด ซึ่งเป็นภาพที่น่าตกใจคล้ายกับภาพเซลฟี่ที่เขาถ่ายไว้ก่อนหน้านี้

แต่ภาพจริงเหล่านั้นถูกนำไปใช้และปรับแต่งโดย AI เพื่อสร้างภาพปลอมที่แพร่กระจายอย่างรวดเร็วในช่วงสองวันที่ผ่านมา ภาพ AI แสดงให้เห็นผู้หญิงคนหนึ่งกำลังทาสีเลือดปลอมให้กับบุคคลที่ดูเหมือน Ostrovsky ซึ่งกำลังยิ้มอยู่ ภาพนี้ถูกจัดองค์ประกอบให้ดูเหมือนภาพที่ถ่ายเบื้องหลังการถ่ายทำภาพยนตร์หรือรายการทีวี

เรารู้ได้อย่างไรว่ามันเป็นของปลอม? เริ่มต้นจากมีสัญญาณที่บ่งบอกถึงความผิดปกติของ AI มากมายที่ใคร ๆ ก็สามารถสังเกตได้ด้วยตนเองโดยไม่ต้องใช้เทคโนโลยีเพิ่มเติม

ตัวเลขด้านหลังของภาพมีร่องรอยที่ชัดเจนที่สุดของ AI โดยมีรถยนต์ที่บิดเบี้ยวดูเหมือนจะละลายรวมกัน และทีมงานสนับสนุนที่มีมือผิดรูป หลายเวอร์ชันของภาพที่แพร่กระจายทางออนไลน์ดูเหมือนจะตัดองค์ประกอบพื้นหลังออกไป อาจจะเพื่อปกปิดความผิดปกติของ AI ได้ดีขึ้น

ข้อความบนเสื้อยืดของ Ostrovsky ก็บิดเบี้ยวในแบบที่ AI มักจะทำ คราบเลือดบนเสื้อปลอมไม่ตรงกับคราบที่เห็นในการสัมภาษณ์ของ Nine News ช่างแต่งหน้าในภาพ AI ยังดูเหมือนจะมีนิ้วพิเศษที่บวมผิดธรรมชาติหากคุณซูมเข้าไปดูใกล้ๆ

เครื่องมือตรวจสอบภาพ AI นั้นไม่น่าเชื่อถือ แต่มีวิธีที่น่าเชื่อถือกว่าที่สามารถช่วยได้

เครื่องมือสร้างภาพ AI ของ Google สร้างลายน้ำที่มองไม่เห็น โครงการลายน้ำนี้เรียกว่า SynthID และเริ่มต้นเมื่อไม่กี่ปีที่ผ่านมา แต่ Google ไม่ได้เปิดตัวเครื่องมือใด ๆ ที่อนุญาตให้ประชาชนทั่วไปตรวจสอบลายน้ำด้วยตนเองในขณะนั้น สิ่งนั้นเปลี่ยนไปเมื่อเดือนที่แล้ว เมื่อ Gemini ได้รับความสามารถในการตรวจจับ

ตอนนี้ใครๆ ก็สามารถอัปโหลดภาพไปยัง Gemini และถามว่ามีเครื่องหมาย SynthID หรือไม่ ภาพปลอมของ Ostrovsky มีเครื่องหมายดังกล่าว ตามการทดสอบที่ Gizmodo ดำเนินการเมื่อวันอังคาร เพื่อให้ชัดเจน การไม่มี SynthID ไม่ได้หมายความว่าภาพนั้นเป็นของจริง เพียงแต่ไม่ได้สร้างขึ้นด้วยผลิตภัณฑ์ของ Google

เครื่องตรวจจับภาพ AI อื่น ๆ ไม่ใช่วิธีที่น่าเชื่อถือในการตรวจจับภาพ AI และนั่นเป็นปัญหาใหญ่ในสถานการณ์เช่นนี้ ผู้คนที่ถาม Grok และ ChatGPT ในช่วงสองวันที่ผ่านมาว่าภาพนั้นเป็นของจริง ได้รับการยืนยันว่าไม่ใช่ AI ในความเป็นจริง พวกเขายืนยันอย่างหนักแน่น

Grok ซึ่งขึ้นชื่อว่าไม่น่าเชื่อถือนั้น ยืนยันว่าภาพ AI เป็นของจริง โดยทิ้งช่องว่างไว้ที่ท้ายคำอธิบายว่าอาจเป็นธงปลอมเพราะ “โพสต์ออนไลน์บางส่วนแนะนำ” ว่าอาจเป็นของปลอม

Gizmodo ยังถาม ChatGPT ว่าภาพนั้นเป็นของจริงหรือไม่ และเช่นเดียวกับคนอื่น ๆ บน X ที่ชี้ให้เห็นถึงการตอบกลับจากแชทบอท OpenAI ว่าเป็น “หลักฐาน” ว่าภาพนั้นไม่ได้สร้างด้วย AI เราได้รับการตอบกลับที่ไม่ดี

ดังที่ ChatGPT เขียนในการตอบคำถามจาก Gizmodo: “ไม่มีสัญญาณที่ชัดเจนว่าภาพนี้สร้างโดย AI จากสิ่งที่มองเห็นได้ ดูเหมือนภาพเบื้องหลังการถ่ายทำภาพยนตร์หรือรายการทีวีจริง”

แชทบอทยังให้รายการแบบมีจุดไข่ปลาอธิบายว่าทำไมถึงไม่ใช่ AI โดยสังเกต “บริบทที่น่าเชื่อถือ” “ความสมจริงที่ยุ่งเหยิง” และ “รายละเอียดที่ดีอย่างสม่ำเสมอ” บอทยังบอกว่าภาพนั้นมี “กายวิภาคของมนุษย์ที่เป็นธรรมชาติ” ซึ่งไม่เป็นความจริงสำหรับมนุษย์คนใดที่ตรวจสอบภาพปลอมอย่างใกล้ชิด

Gizmodo ยังอัปโหลดภาพไปยัง Claude ของ Anthropic ซึ่งตอบว่า: “นี่คือภาพเบื้องหลังที่ยอดเยี่ยมจากสิ่งที่ดูเหมือนจะเป็นการผลิตภาพยนตร์หรือรายการทีวี! ภาพแสดงให้เห็นช่างแต่งหน้ากำลังแต่งหน้าเอฟเฟกต์พิเศษเพื่อสร้างเอฟเฟกต์บาดแผลที่สมจริงให้กับนักแสดง”

เมื่อถูกถามว่าภาพนั้นเป็น AI หรือไม่ Claude ตอบว่า: “ไม่ นี่ไม่ใช่ AI นี่คือภาพถ่ายจริงจากกองถ่ายทำภาพยนตร์หรือรายการทีวีจริง” แชทบอทให้รายการแบบมีจุดไข่ปลาคล้ายกับ ChatGPT โดยมีเหตุผลว่าทำไมถึงเป็นของจริง รวมถึง “งานแต่งหน้ามืออาชีพ” และ “รายละเอียดทางกายภาพที่แท้จริง”

เรายังทดสอบ Copilot ของ Microsoft ด้วย และคุณจะไม่มีทางเดาได้ ใช่ Copilot ก็บอกว่าภาพนั้นเป็นของจริง โดยให้คำตอบที่คล้ายกับ ChatGPT, Claude และ Grok

Gizmodo ทดสอบเครื่องตรวจจับภาพ AI ชั้นนำบางส่วนที่ปรากฏขึ้นเมื่อผู้ใช้อินเทอร์เน็ตทั่วไปค้นหา Google เพื่อดูว่าพวกเขาจะพูดอะไรเกี่ยวกับภาพปลอมที่ชัดเจนนี้ และมันก็แย่พอๆ กับแชทบอทหลักๆ

SiteEngine บอกว่ามันเป็นของจริงและมีโอกาสเพียง 9% ที่สร้างด้วย AI WasItAI ตอบสนองคล้ายกัน โดยเขียนว่า “เราค่อนข้างมั่นใจว่าไม่มี AI ถูกใช้ในการสร้างภาพนี้” MyDetector ยังบอกว่ามีโอกาส 99.4% ที่มันเป็นของจริงและไม่ได้สร้างด้วย AI

เครื่องตรวจจับ AI ที่เน้นข้อความก็ไม่น่าเชื่อถือเช่นกัน เผื่อว่าคุณจะสงสัย ตัวอย่างเช่น พวกเขาจะตั้งค่าสถานะสิ่งต่างๆ เช่น ปฏิญญาอิสรภาพว่าเป็น AI

บัญชีเครื่องหมายถูกสีน้ำเงินหนึ่งบัญชีบน X โพสต์ภาพหน้าจอของผู้ตรวจสอบ AI ที่อ้างว่าภาพปลอมของ Ostrovsky นั้นสร้างโดยมนุษย์และไม่ใช่ AI และบุคคลที่อยู่เบื้องหลังบัญชีอ้างว่าไม่สามารถเป็น AI ได้เพราะสภาพแวดล้อมดูเหมือนบอนไดบีช ซึ่งเป็นข้ออ้างที่ไร้สาระ

AI สามารถสร้างภาพที่ดูเหมือนสภาพแวดล้อมใดก็ได้ แต่การตอบสนองนี้แสดงให้เห็นถึงปัญหาหนึ่งกับแพลตฟอร์มโซเชียลมีเดียเช่น X ที่ผู้คนที่เผยแพร่ทฤษฎีสมคบคิดได้รับการยกย่อง

Elon Musk กำจัดเครื่องหมายถูกที่เรียกว่า legacy checkmarks เมื่อเขาซื้อไซต์ดังกล่าวในช่วงปลายปี 2022 ซึ่งเป็นป้ายที่ใช้เพื่อตรวจสอบว่าบุคคลนั้นเป็นคนที่พวกเขาบอกว่าเป็น Musk อนุญาตให้ใครก็ตามที่มีเงิน 8 ดอลลาร์สามารถ “ยืนยัน” ได้ แม้ว่าบริษัทจะไม่ได้ตรวจสอบตัวตนที่แท้จริงของใครบางคน

และสิ่งที่แย่กว่านั้นคืออัลกอริทึมผลักดันทวีตจากเครื่องหมายถูกสีน้ำเงินให้สูงขึ้นในการตอบกลับของโพสต์ใด ๆ ก็ตาม ซึ่งหมายความว่าคนที่ได้รับการเปิดเผยมากที่สุดคือคนประเภทที่ต้องการให้เงินกับ Musk ซึ่งก็คือคนที่โง่ที่สุดในโลก

Ostrovsky ซึ่งบอกกับ Nine News ว่าเขารอดชีวิตจากการโจมตีเมื่อวันที่ 7 ตุลาคม 2023 ในอิสราเอลด้วย ได้โพสต์บน X เมื่อวันอังคารเพื่อรับทราบว่าเขาได้เห็นการอ้างว่าการโจมตีที่บอนไดบีชเป็นการจัดฉากและว่าเขากำลังแกล้งทำ

เหยื่อรายอื่น ๆ ของการโจมตี ได้แก่ เด็กหญิงอายุ 10 ขวบและผู้รอดชีวิตจากเหตุการณ์ฆ่าล้างเผ่าพันธุ์ชาวยิวอายุ 87 ปี ซึ่งเป็นหนึ่งใน 15 คนที่เสียชีวิต พิธีศพแรกสำหรับเหยื่อจะจัดขึ้นในวันพุธ ตามรายงานของ The Guardian รวมถึง Rabbi Eli Schlanger และ Rabbi Yaakov Levitan

ผู้ก่อเหตุทั้งสองถูกระบุว่าเป็น Sajid Akram อายุ 50 ปี ซึ่งถูกตำรวจสังหารในที่เกิดเหตุ และ Naveed ลูกชายวัย 24 ปีของเขา ซึ่งถูกตำรวจยิงและได้รับบาดเจ็บและยังคงรักษาตัวอยู่ในโรงพยาบาล มีรายงานว่าชายทั้งสองได้รับแรงบันดาลใจจากกลุ่มก่อการร้าย Islamic State และเพิ่งเดินทางไปยังฟิลิปปินส์ แต่ไม่ชัดเจนว่าพวกเขากำลังทำอะไรอยู่ที่นั่น

ออสเตรเลียมีกฎหมายควบคุมปืนที่เข้มงวด ซึ่งผ่านหลังจากเหตุการณ์กราดยิงครั้งใหญ่ที่น่าสยดสยองในปี 1996 ซึ่งทำให้มีผู้เสียชีวิต 35 คน แต่มีความเข้าใจผิดทั่วไปในช่วงหลายสิบปีที่ผ่านมาว่าเป็นไปไม่ได้ที่จะหาปืนในประเทศนี้ ปืนทั้งหกกระบอกที่ใช้ในการโจมตีเมื่อวันอาทิตย์ได้รับมาอย่างถูกกฎหมาย ตามข้อมูลของตำรวจ

นายกรัฐมนตรีออสเตรเลีย Anthony Albanese ได้ออกมาสนับสนุนกฎหมายควบคุมปืนที่เข้มงวดขึ้น โดยสนับสนุนให้มีการตรวจสอบผู้ที่ได้รับใบอนุญาตปืนบ่อยขึ้น ผู้โจมตีที่เสียชีวิตได้รับใบอนุญาตปืนเมื่อสิบปีก่อน และดูเหมือนว่าตำรวจไม่ได้ทำการตรวจสอบใดๆ นับแต่นั้นมา

ภาพ AI บิดเบือน: โจมตีบอนไดเป็นเรื่องจัดฉาก

การแพร่กระจายของข้อมูลเท็จจากภาพ AI ที่บิดเบือนเหตุการณ์โจมตีบอนได

การโจมตีที่บอนไดบีชเป็นเรื่องที่น่าเศร้าและควรได้รับความเคารพ การใช้ภาพ AI เพื่อบิดเบือนความจริงและสร้างความเข้าใจผิดเป็นสิ่งที่ยอมรับไม่ได้ เราควรตรวจสอบแหล่งที่มาของข้อมูลและระมัดระวังในการแชร์ข้อมูลที่อาจเป็นเท็จ เพื่อป้องกันการแพร่กระจายข้อมูลที่ไม่ถูกต้อง

ที่มา – AI Image Falsely Suggests Bondi Beach Terror Attack Was Staged

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *