Deepfakes ยกระดับปี 2025: อะไรจะเกิดขึ้น

บทความนี้ปรากฏครั้งแรกบน The Conversation

ตลอดปี 2025 deepfakes ได้รับการพัฒนาอย่างมาก ใบหน้า เสียง และการแสดงทั้งร่างกายที่สร้างโดย AI ซึ่งเลียนแบบบุคคลจริง มีคุณภาพเพิ่มขึ้นเกินกว่าที่ผู้เชี่ยวชาญหลายคนคาดการณ์ไว้เมื่อไม่กี่ปีที่ผ่านมา นอกจากนี้ยังมีการใช้เพิ่มขึ้นเพื่อหลอกลวงผู้คน

สำหรับสถานการณ์ในชีวิตประจำวันหลายๆ สถานการณ์ โดยเฉพาะอย่างยิ่งวิดีโอคอลความละเอียดต่ำและสื่อที่แชร์บนแพลตฟอร์มโซเชียลมีเดีย ความสมจริงของ deepfakes นั้นสูงพอที่จะหลอกผู้ชมที่ไม่ใช่ผู้เชี่ยวชาญได้อย่างน่าเชื่อถือ ในทางปฏิบัติ สื่อสังเคราะห์จึงแทบแยกไม่ออกจากบันทึกที่แท้จริงสำหรับคนทั่วไป และในบางกรณี แม้แต่สำหรับสถาบันต่างๆ

และการเพิ่มขึ้นนี้ไม่ได้จำกัดอยู่แค่คุณภาพเท่านั้น ปริมาณของ deepfakes ก็เพิ่มขึ้นอย่างรวดเร็วเช่นกัน บริษัทรักษาความปลอดภัยทางไซเบอร์ DeepStrike ประเมินว่ามีการเพิ่มขึ้นจาก deepfakes ออนไลน์ประมาณ 500,000 รายการในปี 2023 เป็นประมาณ 8 ล้านรายการในปี 2025 โดยมีการเติบโตต่อปีใกล้ถึง 900%

ฉันเป็นนักวิทยาศาสตร์คอมพิวเตอร์ที่ วิจัย deepfakes และสื่อสังเคราะห์อื่นๆ จากมุมมองของฉัน ฉันเห็นว่าสถานการณ์ มีแนวโน้มที่จะแย่ลง ในปี 2026 เมื่อ deepfakes กลายเป็นนักแสดงสังเคราะห์ที่สามารถตอบสนองต่อผู้คนได้แบบเรียลไทม์

การเปลี่ยนแปลงทางเทคนิคหลายอย่างเป็นพื้นฐานของการยกระดับที่น่าทึ่งนี้ ประการแรก ความสมจริงของวิดีโอได้ก้าวกระโดดครั้งสำคัญด้วยโมเดลการสร้างวิดีโอที่ออกแบบมาโดยเฉพาะเพื่อ รักษาความสอดคล้องของเวลา โมเดลเหล่านี้สร้างวิดีโอที่มีการเคลื่อนไหวที่สอดคล้องกัน มีเอกลักษณ์ของบุคคลที่แสดงอย่างสม่ำเสมอ และเนื้อหาที่สมเหตุสมผลจากเฟรมหนึ่งไปอีกเฟรมหนึ่ง โมเดลจะแยกข้อมูลที่เกี่ยวข้องกับการแสดงเอกลักษณ์ของบุคคลออกจากข้อมูลเกี่ยวกับการเคลื่อนไหว เพื่อให้การเคลื่อนไหวเดียวกันสามารถ แมปไปยังเอกลักษณ์ที่แตกต่างกัน หรือเอกลักษณ์เดียวกันสามารถมีการเคลื่อนไหวได้หลายประเภท

โมเดลเหล่านี้สร้างใบหน้าที่มั่นคงและสอดคล้องกัน โดยไม่มีการกะพริบ การบิดเบี้ยว หรือการบิดเบือนโครงสร้างรอบดวงตาและกราม ซึ่งครั้งหนึ่งเคยเป็นหลักฐานทางนิติวิทยาศาสตร์ที่เชื่อถือได้ของ deepfakes

ประการที่สอง การโคลนนิ่งเสียงได้ข้ามสิ่งที่ฉันเรียกว่า “เกณฑ์ที่แยกไม่ออก” เสียงเพียงไม่กี่วินาทีก็เพียงพอที่จะสร้าง โคลนที่น่าเชื่อ ได้อย่างสมบูรณ์พร้อมด้วยน้ำเสียงที่เป็นธรรมชาติ จังหวะ เน้น อารมณ์ การหยุดชะงัก และเสียงลมหายใจ ความสามารถนี้กำลังกระตุ้นการฉ้อโกงขนาดใหญ่ ผู้ค้าปลีกรายใหญ่บางรายรายงานว่าได้รับ การโทรหลอกลวงที่สร้างโดย AI มากกว่า 1,000 ครั้ง ต่อวัน สัญญาณการรับรู้ที่เคยเปิดเผยเสียงสังเคราะห์ส่วนใหญ่หายไปแล้ว

ประการที่สาม เครื่องมือสำหรับผู้บริโภคได้ผลักดันอุปสรรคทางเทคนิคให้เกือบเป็นศูนย์ การอัปเกรดจาก Sora 2 ของ OpenAI และ Veo 3 ของ Google และคลื่นของสตาร์ทอัพ หมายความว่าใครๆ ก็สามารถอธิบายแนวคิด ปล่อยให้โมเดลภาษาขนาดใหญ่เช่น ChatGPT ของ OpenAI หรือ Gemini ของ Google ร่างสคริปต์ และ สร้างสื่อภาพและเสียงที่ขัดเกลาได้ในไม่กี่นาที ตัวแทน AI สามารถทำให้กระบวนการทั้งหมดเป็นไปโดยอัตโนมัติ ความสามารถในการสร้าง deepfakes ที่สอดคล้องกันและขับเคลื่อนด้วยเรื่องราวในขนาดใหญ่ได้รับการเผยแพร่อย่างมีประสิทธิภาพ

การผสมผสานระหว่างปริมาณที่เพิ่มขึ้นและบุคคลที่แทบแยกไม่ออกจากมนุษย์จริง ทำให้เกิด ความท้าทายอย่างร้ายแรงในการตรวจจับ deepfakes โดยเฉพาะอย่างยิ่งในสภาพแวดล้อมสื่อที่ความสนใจของผู้คนแตกกระจายและเนื้อหาเคลื่อนที่เร็วกว่าที่จะตรวจสอบได้ มีอันตรายในโลกแห่งความเป็นจริงเกิดขึ้นแล้ว ตั้งแต่ ข้อมูลที่ผิดพลาด ไปจนถึง การคุกคามแบบกำหนดเป้าหมาย และ กลโกงทางการเงิน ที่ deepfakes เปิดใช้งาน ซึ่งแพร่กระจายก่อนที่ผู้คนจะมีโอกาสตระหนักว่าเกิดอะไรขึ้น

เมื่อมองไปข้างหน้า แนวทางสำหรับปีหน้ามีความชัดเจน: Deepfakes ยกระดับปี 2025 กำลังมุ่งสู่การสังเคราะห์แบบเรียลไทม์ที่สามารถสร้างวิดีโอที่คล้ายกับความแตกต่างของรูปลักษณ์ของมนุษย์อย่างใกล้ชิด ทำให้ง่ายต่อการหลีกเลี่ยงระบบตรวจจับ ขอบเขตกำลังเปลี่ยนจากการสร้างภาพที่สมจริงแบบคงที่ไปสู่ความสอดคล้องของเวลาและพฤติกรรม: โมเดลที่ สร้างเนื้อหาแบบสดหรือใกล้เคียงแบบสด แทนที่จะเป็นคลิปที่เรนเดอร์ไว้ล่วงหน้า

การสร้างแบบจำลองเอกลักษณ์กำลังรวมเข้าสู่ระบบที่เป็นหนึ่งเดียว ซึ่งไม่เพียงแต่จับภาพลักษณะของบุคคลเท่านั้น แต่ยังรวมถึงวิธีที่พวกเขา เคลื่อนไหว ออกเสียง และพูดในบริบทต่างๆ ผลลัพธ์ที่ได้นั้นเหนือกว่า “สิ่งนี้คล้ายกับบุคคล X” ไปสู่ “สิ่งนี้มีพฤติกรรมเหมือนบุคคล X เมื่อเวลาผ่านไป” ฉันคาดหวังว่าผู้เข้าร่วมวิดีโอคอลทั้งหมดจะถูกสังเคราะห์แบบเรียลไทม์ นักแสดงที่ขับเคลื่อนด้วย AI แบบโต้ตอบได้ ซึ่งใบหน้า เสียง และท่าทางปรับเปลี่ยนได้ทันทีตามข้อความแจ้ง และนักต้มตุ๋นที่ปรับใช้รูปประจำตัวที่ตอบสนองมากกว่าวิดีโอแบบตายตัว

เมื่อความสามารถเหล่านี้เติบโตเต็มที่ ช่องว่างทางการรับรู้ระหว่างสื่อสังเคราะห์และสื่อมนุษย์ที่แท้จริงจะยังคงแคบลง แนวป้องกันที่มีความหมายจะเปลี่ยนไปจากการตัดสินของมนุษย์ แต่จะขึ้นอยู่กับการป้องกันในระดับโครงสร้างพื้นฐาน ซึ่งรวมถึงแหล่งที่มาที่ปลอดภัย เช่น สื่อที่ลงนามด้วยการเข้ารหัสลับ และเครื่องมือเนื้อหา AI ที่ใช้ข้อกำหนด Coalition for Content Provenance and Authenticity นอกจากนี้ยังขึ้นอยู่กับเครื่องมือทางนิติวิทยาศาสตร์แบบหลายรูปแบบ เช่น Deepfake-o-Meter ของห้องทดลองของฉัน

เพียงแค่ดูพิกเซลให้หนักขึ้นจะไม่เพียงพออีกต่อไป

Deepfakes ยกระดับปี 2025: อนาคตที่หลอกลวง?

การเพิ่มขึ้นของ Deepfakes ยกระดับปี 2025 เป็นสิ่งที่น่ากังวลอย่างยิ่ง เทคโนโลยีที่ก้าวหน้าเหล่านี้สามารถถูกนำไปใช้ในทางที่ผิดได้อย่างง่ายดายเพื่อสร้างข่าวปลอม หลอกลวงผู้คน และสร้างความเสียหายต่อชื่อเสียงของผู้อื่น

เราจะรับมือกับ Deepfakes ยกระดับปี 2025 ได้อย่างไร?

จำเป็นอย่างยิ่งที่เราจะต้องตระหนักถึงความเสี่ยงที่เกี่ยวข้องกับ deepfakes และพัฒนาเครื่องมือและเทคนิคเพื่อตรวจจับและป้องกันการใช้งานในทางที่ผิด การศึกษาผู้คนเกี่ยวกับ deepfakes และวิธีการตรวจสอบความถูกต้องของข้อมูลก็เป็นสิ่งสำคัญเช่นกัน

อนาคตของ deepfakes นั้นไม่แน่นอน แต่สิ่งหนึ่งที่แน่นอนคือเทคโนโลยีนี้จะยังคงพัฒนาต่อไป เราต้องเตรียมพร้อมสำหรับความท้าทายที่ Deepfakes ยกระดับปี 2025 นำมาสู่สังคมของเรา การพัฒนาเครื่องมือในการตรวจสอบจึงมีความสำคัญอย่างยิ่ง

ที่มา – Deepfakes Leveled up in 2025—Here’s What’s Coming Next

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *