หายนะในกาซา: อนาคตสงคราม AI?

ในปี 2021 อิสราเอลใช้รหัสลับว่า “The Gospel” เป็นครั้งแรก ซึ่งเป็นชื่อรหัสของเครื่องมือ AI ที่นำมาใช้ในสงคราม 11 วันกับกาซา ซึ่งกองกำลังป้องกันอิสราเอล (IDF) ถือว่าเป็น สงครามปัญญาประดิษฐ์ครั้งแรก ข้อสรุปของสงครามนั้นไม่ได้ยุติความขัดแย้งระหว่างอิสราเอลและปาเลสไตน์ แต่มันเป็นสัญญาณบ่งบอกถึงสิ่งที่จะเกิดขึ้นในอนาคต

The Gospel สร้างรายการอาคารเป้าหมายที่เป็นไปได้อย่างรวดเร็วสำหรับการโจมตีทางทหารโดยการตรวจสอบข้อมูลจากการเฝ้าระวัง ภาพถ่ายดาวเทียม และเครือข่ายโซเชียล นั่นคือเมื่อสี่ปีก่อน และสาขาปัญญาประดิษฐ์ได้ประสบกับช่วงเวลาแห่งความก้าวหน้าที่รวดเร็วที่สุดช่วงหนึ่งในประวัติศาสตร์ของเทคโนโลยี

เมื่อวันอังคารที่ผ่านมา เป็นเวลาสองปีที่อิสราเอลโจมตีฉนวนกาซาครั้งล่าสุด ซึ่งถูกเรียกว่า “ห้องปฏิบัติการมนุษย์ AI” ที่ซึ่งอาวุธแห่งอนาคตถูกทดสอบกับกลุ่มตัวอย่างที่มีชีวิต

ในช่วงสองปีที่ผ่านมา ความขัดแย้งนี้คร่าชีวิตชาวปาเลสไตน์ไปมากกว่า 67,000 คน ซึ่งมากกว่า 20,000 คนเป็นเด็ก ณ เดือนมีนาคม 2025 มีมากกว่า 1,200 ครอบครัวที่ถูกกวาดล้างจนหมดสิ้น ตาม การตรวจสอบของรอยเตอร์ ตั้งแต่เดือนตุลาคม 2024 จำนวนผู้เสียชีวิตที่กระทรวงสาธารณสุขปาเลสไตน์ให้มานั้นรวมเฉพาะศพที่ได้รับการระบุตัวตนแล้ว ดังนั้นยอดผู้เสียชีวิตที่แท้จริงน่าจะสูงกว่านี้

การกระทำของอิสราเอลในกาซาถือเป็นการฆ่าล้างเผ่าพันธุ์ คณะกรรมาธิการของสหประชาชาติ สรุป เมื่อเดือนที่แล้ว

ฮามาสและอิสราเอลตกลงในข้อตกลงหยุดยิงระยะแรกที่ประกาศเมื่อ วันพุธ แต่การโจมตีของอิสราเอลในกาซายังคง ดำเนินต่อไป จนถึงเช้าวันพฤหัสบดี ตามรายงานของรอยเตอร์ แผนที่ตกลงกันเกี่ยวข้องกับการปล่อยตัวประกันชาวอิสราเอลโดยฮามาส แลกกับการปล่อยตัวชาวปาเลสไตน์ 1,950 คนที่ถูกอิสราเอลจับกุม และ ขบวนความช่วยเหลือ ที่รอคอยมานาน แต่มันไม่ได้เกี่ยวข้องกับการสร้างรัฐปาเลสไตน์ ซึ่งอิสราเอลคัดค้านอย่างเคร่งครัด เมื่อบ่ายวันศุกร์ อิสราเอลกล่าวว่าข้อตกลงหยุดยิงมีผลบังคับใช้แล้ว และประธานาธิบดีทรัมป์กล่าวว่าจะมีการปล่อยตัวประกันในสัปดาห์หน้า มีข้อตกลงหยุดยิงอย่างน้อยสามครั้งตั้งแต่ 7 ตุลาคม 2023

สิ่งที่ช่วยให้อิสราเอลทำลายล้างในกาซาคือการพึ่งพาปัญญาประดิษฐ์อย่างที่ไม่เคยมีมาก่อน ซึ่งอย่างน้อยก็ได้รับการสนับสนุนจากบริษัทยักษ์ใหญ่ด้านเทคโนโลยีของอเมริกา การใช้อุปกรณ์ AI ของอิสราเอลในการเฝ้าระวังและการตัดสินใจในสงครามได้รับการบันทึกและวิพากษ์วิจารณ์ครั้งแล้วครั้งเล่าโดยสื่อต่างๆ และองค์กร สนับสนุน ตลอดหลายปีที่ผ่านมา

ดร. Heidy Khlaaf หัวหน้านักวิทยาศาสตร์ AI ที่ AI Now Institute กล่าวกับ Gizmodo ว่า “ระบบ AI และโดยเฉพาะอย่างยิ่งโมเดล Generative AI มีข้อบกพร่องอย่างมาก โดยมีอัตราข้อผิดพลาดสูงสำหรับการใช้งานใดๆ ที่ต้องการความแม่นยำ ความถูกต้อง และความปลอดภัยที่สำคัญ” “ผลลัพธ์ของ AI ไม่ใช่ข้อเท็จจริง แต่เป็นการคาดการณ์ เดิมพันสูงกว่าในกรณีของกิจกรรมทางทหาร เนื่องจากคุณกำลังจัดการกับการกำหนดเป้าหมายที่ทำให้ถึงตาย ซึ่งส่งผลต่อชีวิตและความตายของบุคคล”

แม้ว่าอิสราเอลจะไม่ได้เปิดเผยซอฟต์แวร์ข่าวกรองของตนอย่างเต็มที่และปฏิเสธการกล่าวอ้างการใช้ AI บางส่วน แต่สื่อและการสืบสวนที่ไม่แสวงหาผลกำไรจำนวนมากกลับแสดงให้เห็นภาพที่แตกต่างออกไป

นอกจากนี้ ยังใช้ในแคมเปญปี 2021 ของอิสราเอลคือ โปรแกรมอื่นๆ สองโปรแกรม ที่เรียกว่า “Alchemist” ซึ่งส่งการแจ้งเตือนแบบเรียลไทม์สำหรับการ “เคลื่อนไหวที่น่าสงสัย” และ “Depth of Wisdom” เพื่อทำแผนที่เครือข่ายอุโมงค์ของกาซา มีรายงานว่าทั้งสองโปรแกรมนี้ยังคงใช้งานอยู่ในครั้งนี้ด้วยเช่นกัน

นอกเหนือจากสามโปรแกรมที่อิสราเอลเคยเปิดเผยอย่างเปิดเผยว่าใช้งาน IDF ยังใช้ Lavender ซึ่งเป็นระบบ AI ที่สร้างรายการสังหารชาวปาเลสไตน์ AI คำนวณคะแนนเปอร์เซ็นต์สำหรับความน่าจะเป็นที่ชาวปาเลสไตน์จะเป็นสมาชิกของกลุ่มติดอาวุธ ถ้าคะแนนสูง บุคคลนั้นจะกลายเป็นเป้าหมายของการโจมตีด้วยขีปนาวุธ

จากรายงานของนิตยสารอิสราเอล +972 กองทัพ “พึ่งพาระบบนี้เกือบทั้งหมด” อย่างน้อยในช่วงต้นของสงคราม โดยมีความรู้เต็มที่ว่าระบบนี้ระบุพลเรือนว่าเป็นผู้ก่อการร้ายอย่างไม่ถูกต้อง

IDF กำหนดให้เจ้าหน้าที่ต้องอนุมัติคำแนะนำใดๆ ที่ระบบ AI ทำ แต่ตาม +972 กระบวนการอนุมัตินั้นเพียงแค่ตรวจสอบว่าเป้าหมายเป็นผู้ชายหรือไม่

ระบบ AI อื่นๆ อีกมากมายที่ IDF ใช้งานอยู่ยังคงอยู่ในเงามืด หนึ่งในโปรแกรมเพียงไม่กี่โปรแกรมที่เปิดตัวคือ “Where’s Daddy?” ซึ่งสร้างขึ้นเพื่อโจมตีเป้าหมายภายในบ้านของครอบครัว ตาม +972

เจ้าหน้าที่ข่าวกรองอิสราเอลที่ไม่เปิดเผยชื่อบอกกับ +972 ว่า “IDF ทิ้งระเบิด [ผู้ปฏิบัติงานของฮามาส] ในบ้านโดยไม่ลังเล เป็นตัวเลือกแรก การทิ้งระเบิดบ้านของครอบครัวนั้นง่ายกว่ามาก ระบบนี้สร้างขึ้นเพื่อมองหาพวกเขาในสถานการณ์เหล่านี้”

กองทัพอิสราเอลยังใช้ AI ในความพยายามสอดแนมจำนวนมาก Yossi Sariel ซึ่งนำหน่วยสอดแนมของ IDF จนกระทั่งปลายปีที่แล้วเมื่อเขาลาออก โดยอ้างว่าล้มเหลวในการป้องกันการโจมตีของฮามาสเมื่อวันที่ 7 ต.ค. ใช้เวลาพักผ่อนในหนึ่งปีเพื่อฝึกอบรมที่สถาบันป้องกันประเทศที่ได้รับทุนจากเพนตากอนในวอชิงตัน ดี.ซี. ซึ่งเขาแบ่งปันวิสัยทัศน์ที่รุนแรงของ AI ในสนามรบ ตามที่ศาสตราจารย์ที่สถาบันกล่าวกับ Washington Post เมื่อปีที่แล้ว

รายงานของ Guardian จากเดือนสิงหาคมพบว่าอิสราเอลกำลังจัดเก็บและประมวลผลการโทรศัพท์มือถือที่ชาวปาเลสไตน์โทรออกผ่าน Microsoft Azure Cloud Platform หลังจาก การประท้วง เป็นเวลาหลายเดือน Microsoft ได้ประกาศเมื่อเดือนที่แล้วว่าจะตัดสิทธิ์การเข้าถึงบริการบางอย่างที่มอบให้กับหน่วย IDF หลังจาก การตรวจสอบภายใน พบหลักฐานที่สนับสนุนการกล่าวอ้างบางส่วนในบทความของ Guardian

Microsoft ปฏิเสธความรู้ล่วงหน้า แต่รายงานของ Guardian แสดงให้เห็นภาพที่แตกต่างออกไป Satya Nadella ซีอีโอของ Microsoft ได้พบกับ Sariel หัวหน้าฝ่ายปฏิบัติการสอดแนมของ IDF ในช่วงปลายปี 2021 เพื่อหารือเกี่ยวกับการโฮสต์เนื้อหาข่าวกรองบน Microsoft Cloud รายงานของ Guardian

Hossam Nasr ผู้จัดงานของ No Azure for Apartheid และอดีตพนักงานของ Microsoft บอกกับ Gizmodo เมื่อเดือนที่แล้วว่า “สัญญาของ Microsoft กับกองทัพอิสราเอลส่วนใหญ่ยังคงอยู่เหมือนเดิม”

เมื่อถูกถามความคิดเห็น Microsoft ได้ส่ง Gizmodo ไปยัง แถลงการณ์ก่อนหน้านี้ ที่บริษัทยักษ์ใหญ่ด้านเทคโนโลยีได้ทำเกี่ยวกับการสืบสวนภายในอย่างต่อเนื่องเกี่ยวกับวิธีการที่ผลิตภัณฑ์ของตนถูกนำไปใช้โดยกระทรวงกลาโหมของอิสราเอล

นอกเหนือจากการจัดเก็บและตรวจสอบข้อมูลแล้ว AI ยังถูกใช้ในการแปลและถอดเสียงการเฝ้าระวังที่รวบรวม แต่จากการตรวจสอบภายในของอิสราเอล ตาม Washington Post พบว่าโมเดล AI บางตัวที่ IDF ใช้ในการแปลการสื่อสารจากภาษาอาหรับมีความไม่ถูกต้อง

การสืบสวนของ Associated Press จากต้นปีนี้พบว่าโมเดล AI ขั้นสูงของ OpenAI ซึ่งซื้อผ่าน Microsoft Azure ถูกใช้ในการถอดเสียงและแปลการสื่อสารที่ถูกสกัดกั้น การสืบสวนยังพบว่าการใช้เทคโนโลยี OpenAI และ Microsoft ของกองทัพอิสราเอลพุ่งสูงขึ้นหลังจากวันที่ 7 ต.ค. 2023

ความพยายามในการเฝ้าระวังที่ขับเคลื่อนด้วย AI ไม่ได้กำหนดเป้าหมายเฉพาะผู้อยู่อาศัยในกาซาและเวสต์แบงก์เท่านั้น แต่ยังถูกใช้กับผู้ประท้วงที่สนับสนุนปาเลสไตน์ในสหรัฐอเมริกาอีกด้วย รายงานของ Amnesty International จากเดือนสิงหาคมพบว่าผลิตภัณฑ์ AI ของบริษัทอเมริกันเช่น Palantir ถูกใช้โดยกระทรวงความมั่นคงแห่งมาตุภูมิเพื่อกำหนดเป้าหมายบุคคลที่ไม่ใช่พลเมืองที่พูดออกมาเพื่อสิทธิของชาวปาเลสไตน์

โฆษกของ DHS บอกกับ Gizmodo ว่า “Palantir มีสัญญากับรัฐบาลกลางกับ DHS มาเป็นเวลาสิบสี่ปี การมีส่วนร่วมปัจจุบันของ DHS กับ Palantir เป็นไปผ่าน Immigration and Customs Enforcement ซึ่งบริษัทให้บริการโซลูชันสำหรับการจัดการคดีสืบสวนและการดำเนินการบังคับใช้” “ในระดับกรม DHS มองเทคโนโลยีและโซลูชันข้อมูลแบบองค์รวมที่สามารถตอบสนองความต้องการด้านการดำเนินงานและภารกิจได้”

Palantir ยังไม่ได้ตอบสนองต่อคำร้องขอความคิดเห็น

การแพร่หลายของ วิดีโอ และภาพที่สร้างโดย AI ได้ทำมากกว่าแค่การท่วมท้นอินเทอร์เน็ตด้วย ขยะ นอกจากนี้ยังก่อให้เกิดความสับสนอย่างกว้างขวางสำหรับผู้ใช้โซเชียลมีเดียเกี่ยวกับสิ่งที่จริงและอะไรคือของปลอม ความสับสนเป็นสิ่งที่เข้าใจได้ แต่มีการ co-opted เพื่อทำลายความน่าเชื่อถือของเสียงของผู้ถูกกดขี่ ในกรณีนี้ ชาวกาซาก็เป็นผู้รับการโจมตีเช่นกัน

วิดีโอและภาพถ่ายที่ออกมาจากกาซาถูกเรียกว่า “Gazawood” ในอิสราเอล โดยหลายคนอ้างว่าภาพเหล่านี้ถูกจัดฉากหรือสร้างโดย AI ทั้งหมด เนื่องจากอิสราเอล ไม่อนุญาต ให้นักข่าวต่างชาติเข้าไปในกาซา และไม่เพียงแต่ทำลายความน่าเชื่อถือเท่านั้น แต่ยังกำหนดเป้าหมายนักข่าวของดินแดนอย่างไม่สมส่วนในการโจมตีทางอากาศ ทำให้ความจริงตรวจสอบได้ยากขึ้น

ในกรณีหนึ่ง Saeed Ismail ชาวกาซาวัย 22 ปีตัวจริงที่ระดมทุนออนไลน์เพื่อเลี้ยงดูครอบครัวของเขาถูกกล่าวหาว่าสร้างโดย AI เนื่องจากคำที่สะกดผิดบนผ้าห่มของเขาที่ปรากฏในวิดีโอหนึ่ง Gizmodo ได้ตรวจสอบการมีอยู่ของเขาในเดือนกรกฎาคม

ในขณะที่สตาร์ทอัพด้านเทคโนโลยีของอิสราเอลพบ ตลาดขนาดใหญ่ในสหรัฐอเมริกา และทำข้อตกลงกับ หน่วยงานของรัฐบาลเช่น ICE ความสัมพันธ์เป็นไปในทั้งสองทาง

เป็นการยากที่จะทำแผนที่อย่างแม่นยำว่าบริษัทอเมริกันบริษัทใดที่ให้เทคโนโลยีที่ใช้ในการกำหนดเป้าหมายและฆ่าชาวปาเลสไตน์ แต่สิ่งที่สามารถใช้ได้คือบริษัท Big Tech บริษัทใดที่ภูมิใจในการเป็นพันธมิตรกับกองทัพอิสราเอล และคำตอบสำหรับคำถามนั้นคือเกือบทั้งหมด

Microsoft ได้รับความสนใจจากนักเคลื่อนไหวเมื่อเร็วๆ นี้ แต่ Google, Amazon และ Palantir ถือเป็นผู้ขายบุคคลที่สามชั้นนำรายอื่นๆ สำหรับ IDF

พนักงานของ Google และ Amazon ได้ ประท้วง มาหลายปีแล้วเรื่อง “Project Nimbus” ซึ่งเป็นสัญญา 1.2 พันล้านดอลลาร์ที่มอบหมายให้บริษัทยักษ์ใหญ่ด้านเทคโนโลยีของอเมริกาในการให้บริการคลาวด์คอมพิวติ้งและ AI แก่กองทัพอิสราเอล

Amazon ระงับ วิศวกรคนหนึ่งเมื่อเดือนที่แล้วเนื่องจากส่งอีเมลถึง CEO, Andy Jassy เกี่ยวกับโครงการและพูดต่อต้านโครงการในช่อง Slack ของบริษัท

แม้ว่า Google จะได้ ปราบปราม การวิพากษ์วิจารณ์ของพนักงานเช่นกัน เมื่อข้อตกลงถูกลงนามในปี 2021 เจ้าหน้าที่ของ Google เองก็แสดงความกังวลว่าบริการคลาวด์อาจถูกใช้สำหรับการละเมิดสิทธิมนุษยชนต่อชาวปาเลสไตน์ ตาม รายงานของ New York Times ปี 2024

กองทัพอิสราเอลยังขอสิทธิ์เข้าถึง Gemini ของ Google เมื่อเดือนพฤศจิกายนที่ผ่านมา ตาม รายงานของ Washington Post

Palantir ซึ่งนำเสนอซอฟต์แวร์เช่น Artificial Intelligence Platform (AIP) ที่วิเคราะห์เป้าหมายของศัตรูและเสนอแผนการรบ ตกลงที่จะเป็นพันธมิตรเชิงกลยุทธ์กับ IDF เพื่อจัดหาเทคโนโลยีให้กับ “สถานการณ์ปัจจุบันในอิสราเอล” Josh Harris รองประธานบริหารของ Palantir บอกกับ Bloomberg เมื่อปีที่แล้ว

Palantir อยู่ภายใต้การโจมตีทั่วโลกเนื่องจากความร่วมมือกับกองทัพอิสราเอล เมื่อปลายปีที่แล้ว นักลงทุนรายใหญ่ของนอร์เวย์ ขายหุ้น Palantir ทั้งหมด เนื่องจากความกังวลเกี่ยวกับการละเมิดกฎหมายสิทธิมนุษยชนระหว่างประเทศ บริษัทลงทุนกล่าวว่าการวิเคราะห์ระบุว่า Palantir ช่วยเหลือระบบ IDF ที่ใช้ AI ซึ่งจัดอันดับชาวปาเลสไตน์ตามความน่าจะเป็นที่จะเปิดตัวการโจมตี “ผู้ก่อการร้ายหมาป่าเดียวดาย” ซึ่งนำไปสู่การจับกุมเชิงป้องกัน

Alex Karp ซีอีโอได้ยืนยันการตัดสินใจของบริษัทที่จะสนับสนุนอิสราเอลในสงครามต่อต้านชาวกาซาหลายครั้ง

IDF ยังได้ลงนามในข้อตกลงศูนย์ข้อมูลกับ Cisco และ Dell และข้อตกลงคลาวด์คอมพิวติ้งกับบริษัทในเครืออิสระของ IBM Red Hat

IBM บอกกับ Gizmodo ว่า “IBM ให้ความเคารพสิทธิมนุษยชนและเสรีภาพสูงสุด และเรามุ่งมั่นอย่างยิ่งที่จะดำเนินธุรกิจด้วยความซื่อสัตย์ โดยได้รับคำแนะนำจากมาตรฐานทางจริยธรรมที่แข็งแกร่งของเรา” “สำหรับรายงานของสหประชาชาติ การกล่าวอ้างส่วนใหญ่ไม่ถูกต้องและไม่ควรได้รับการปฏิบัติอย่างถูกต้อง”

Cisco, Dell, Google, Amazon และ OpenAI ไม่ตอบสนองต่อคำร้องขอความคิดเห็น

ในเดือนสิงหาคม Washington Post เปิดเผย แผน 38 หน้า ที่ถูกกล่าวหาสำหรับกาซากลายเป็น ศูนย์กลางเทคโนโลยีที่ดำเนินการโดยสหรัฐฯ

เรียกว่า Gaza, Reconstitution, Economic Acceleration and Transformation Trust (หรือ GREAT) แผนนี้เกี่ยวข้องกับการ “ย้าย” ชาวปาเลสไตน์ที่เหลืออยู่ประมาณสองล้านคนชั่วคราว เพื่อสร้างเมืองอัจฉริยะที่ขับเคลื่อนด้วย AI หกถึงแปดเมือง ศูนย์ข้อมูลระดับภูมิภาคเพื่อให้บริการอิสราเอล และสิ่งที่เรียกว่า “The Elon Musk Smart Manufacturing Zone” แผนนี้จะเปลี่ยนกาซาให้เป็น “ทรัสตีชิป” ที่บริหารงานโดยสหรัฐฯ เป็นเวลาอย่างน้อย 10 ปี

บริษัท AI ต้องการเข้าร่วมในสนามรบ

มีความต้องการอย่างมากจากกองทัพทั่วโลกสำหรับระบบ AI ที่จัดทำโดยบริษัทยักษ์ใหญ่ด้านเทคโนโลยี อเมริกากำลังเทเงินหลายล้านดอลลาร์เพื่อรวมระบบ AI เข้ากับการตัดสินใจทางทหาร เช่น การระบุเป้าหมายการโจมตี ซึ่งเป็นส่วนหนึ่งของโครงการ Thunderforge ของตน Xi Jinping ผู้นำจีนก็มีรายงานว่าทำให้ปัญญาประดิษฐ์ทางการทหาร เป็นลำดับความสำคัญเชิงกลยุทธ์สูงสุด

เนื่องจากเทคโนโลยียังอยู่ในช่วงการเติบโต เขตสงครามที่มีการใช้งานและพลเรือนที่อาศัยอยู่ที่นั่นจึงกลายเป็นกลุ่มตัวอย่างทดลองสำหรับเครื่องจักรสังหารที่ขับเคลื่อนด้วย AI เช่นเดียวกับกาซา ยูเครนก็ได้รับการอธิบายว่าเป็น พื้นที่ทดสอบแบบเรียลไทม์ สำหรับเทคโนโลยีทางทหารที่ขับเคลื่อนด้วย AI อย่างไรก็ตาม ในกรณีนั้น รัฐบาลยูเครนเองก็เห็นด้วยกับเรื่องนี้ด้วยเช่นกัน

ในช่วงฤดูร้อน กองทัพยูเครนประกาศ “ทดสอบในยูเครน” ซึ่งเป็นโครงการที่เชิญชวนบริษัทอาวุธต่างประเทศมาทดสอบอาวุธล่าสุดของตนในแนวหน้าของสงครามรัสเซีย-ยูเครน

นอกเหนือจากข้อตกลงมากมายกับกองทัพอิสราเอลแล้ว Palantir ยังเป็นที่นิยมอย่างมากในกระทรวงกลาโหมของอเมริกาอีกด้วย บริษัทได้ลงนามในสัญญาซอฟต์แวร์และข้อมูลมูลค่า 10 พันล้านดอลลาร์ กับกองทัพสหรัฐฯ ในเดือนสิงหาคม

อาจมีคนโต้แย้งว่าผลกำไรจะมีความสำคัญเหนือกว่าสิ่งจูงใจอื่นๆ เสมอ แต่ Palantir ยังได้ขีดเส้นใต้เมื่อเร็วๆ นี้เมื่อถูกขอให้เข้าร่วมใน โครงการระบุตัวตนดิจิทัลของสหราชอาณาจักร ที่เป็นที่ถกเถียง โดยโต้แย้งว่าโครงการนี้จำเป็นต้อง “ตัดสินใจที่การเลือกตั้ง” ตาม Times

เราเคยเห็นบริษัทเทคโนโลยีถอนตัวออกจากโครงการทางทหาร เช่น Project Maven ในอดีตเมื่อพวกเขารู้สึกว่ากระแสลมทางวัฒนธรรมพัดสวนทางกับพวกเขา สำหรับตอนนี้ รัฐบาลทรัมป์ต้องการให้ชาวอเมริกันเป็นผู้นำในสนามรบ AI ในขณะที่การวิพากษ์วิจารณ์จากภายนอกและความกดดันภายในจากพนักงานยังคงมีอยู่ในบริษัท AI ที่ใหญ่ที่สุด พวกเขามีข้อโต้แย้งที่สมเหตุสมผลว่านี่คือสิ่งที่ชาวอเมริกันลงคะแนนให้ จนกว่าสิ่งนั้นจะเปลี่ยนแปลงไป การแย่งชิงเงินทุนทางทหารจะยังคงอยู่ต่อไป

หายนะในกาซา: อนาคตสงคราม AI?

ทำไมหายนะในกาซาถึงเป็นตัวอย่างของอนาคตสงคราม AI

หายนะในกาซา: อนาคตสงคราม AI? กำลังกลายเป็นความจริงที่น่ากลัว ความขัดแย้งที่เกิดขึ้นแสดงให้เห็นถึงการพึ่งพาเทคโนโลยี AI ที่เพิ่มขึ้นอย่างมากในการตัดสินใจทางการทหาร การกำหนดเป้าหมาย และแม้กระทั่งการสังหาร

การใช้ระบบ AI เช่น Lavender แสดงให้เห็นว่า AI สามารถสร้างรายการสังหารได้โดยมีการตรวจสอบจากมนุษย์น้อยมาก ซึ่งนำไปสู่ความเสี่ยงอย่างมากที่จะเกิดข้อผิดพลาดและผลกระทบต่อพลเรือน หายนะในกาซา: อนาคตสงคราม AI? เป็นคำถามที่ต้องพิจารณาอย่างจริงจัง

นอกจากนี้ การที่บริษัทเทคโนโลยีขนาดใหญ่อย่าง Microsoft, Google และ Amazon มีส่วนร่วมในการจัดหาเทคโนโลยี AI ให้กับกองทัพอิสราเอล ทำให้เกิดข้อกังวลด้านจริยธรรมอย่างมาก การที่เทคโนโลยีเหล่านี้ถูกนำไปใช้ในการเฝ้าระวังและการกำหนดเป้าหมายในกาซา ทำให้เกิดคำถามเกี่ยวกับความรับผิดชอบของบริษัทเหล่านี้ต่อผลกระทบที่เกิดขึ้น สิ่งที่เกิดขึ้นในกาซา อาจเป็นเพียงจุดเริ่มต้น เราอาจได้เห็น หายนะในกาซา: อนาคตสงคราม AI? ในรูปแบบอื่น ๆ ในอนาคต

ที่มา – The Destruction in Gaza Is What the Future of AI Warfare Looks Like

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *