Unit 8200 elitna je izraelska vojno-obaveštajna jedinica, koja se pojavila kao nosilac tehnološkog razvoja u svrhe ratovanja i upravlja primenom tehnologija veštačke inteligencije u tekućem sukobu sa Hamasom. Ovi alati zasnovani na AI, od audio praćenja do prepoznavanja lica, transformisali su vojne operacije, ali su otvorili i brojne, duboke etičke dileme i nagovestile dalekosežne posledice po budućnost ratovanja i bezbednost civila.
Jedinica 8200, često se poredi sa američkom Nacionalnom bezbednosnom agencijom, specijalizovana je za signalnu obaveštajnu službu, sajber ratovanje i analizu podataka. U sukobu u Gazi, Jedinica 8200 je sarađivala sa rezervistima iz tehnoloških giganata kao što su Gugl, Majkrosoft i Meta, kako bi brzo razvila efikasne vojne alate zasnovane na veštačkoj inteligenciji. Među njima su alati za praćenje zasnovani na zvuku i prilagođeni za lociranje komandanata i talaca Hamasa, potom za prepoznavanje lica koji identifikuju pojedince sa zaklonjenih ili povređenih lica, pomažući u operacijama ciljanja, ali i napredniji poput tzv. Jevanđelja – sistema koji generiše hiljade ciljeva, uključujući civilne lokacije poput kuća i džamija i dajući prioritet razmeri u odnosu na preciznost. Jedinica 8200 razvila je i oružja zasnovana na AI poznata kao „Lavanda“ i „Gde je tata?“, koja analiziraju velike skupove podataka i na osnovu toga prave predikcije o potencijalnim članovima terorističkih grupa ili prate pojedince do njihovih domova, što često dovodi do vazdušnih napada koji ubijaju čitave porodice.

Ove tehnologije razvijene su pod intenzivnim pritiskom ratnih sukoba, a pokazuju sposobnost Jedinice da brzo inovira i prilagođava se, koristeći najsavremenije tehnologije. Međutim, primenjivanje ovih novih vrsta oružja, bez skoro ikakvog nadzora, izazvalo je globalnu zabrinutost. Sistemi veštačke inteligencije poput „Jevanđelja“ i „Lavande“ povezani su sa ogromnim brojem civilnih žrtava. Vazdušni naleti vođeni ovim alatima pogađali su gusto naseljena područja, ubijajući desetine ljudi u pojedinačnim napadima. Oslanjanje na algoritme koji daju prednost efikasnosti nad tačnošću rizikuje kršenje međunarodnog humanitarnog prava, koje zahteva razlikovanje između boraca i civila. Netransparentna priroda operacija Jedinice 8200 i proces odobravanja izraelskih odbrambenih snaga zamagljuju individualnu odgovornost za odluke donete na osnovu veštačke inteligencije. Kada se dogode greške, poput pogrešne identifikacije ciljeva, nije jasno ko je – ako iko – odgovoran: algoritam, njegovi programeri ili komandanti.
Tu je i pitanje vezano za moralne rizike automatizacije. Sposobnost veštačke inteligencije da generiše ciljeve u velikim razmerama smanjuje ljudski nadzor, stvarajući „fabriku masovnih atentata“, kako je to svojevremeno opisao britanski Gardijan. Ovaj stepen automatizacije praktično odvaja one koji odluke donose ili pokreću određene softvere od ljudske cene tih postupaka, čime se otvara moralna provalija sa nesagledivim posledicama. Konačno, tu je i uvek prisutno pitanje pristrasnosti i greške u podacima. Sistemi veštačke inteligencije oslanjaju se na podatke koji mogu biti nepotpuni ili nereprezentativni, neobjektivni, što može dovesti do pogrešnih identifikacija i, opet, civilnih žrtava. Posebnu pozornost javnosti privukla je uključenost velikih tech kompanija i njihovo saučesništvo u ratnim sukobima. Iako Gugl i Majkrosoft tvrde da nemaju direktnog učešća, stručnost njihovih zaposlenih ugrađena je u kapacitete Jedinice 8200, zamagljujući granice između privatne industrije i vojnih akcija više nego ikada pre.
Ako moćne vojske daju prioritet efikasnosti u odnosu na etiku, slabije države ili nedržavni akteri mogu slediti taj primer, eskalirajući sukobe širom sveta. Prekomerno oslanjanje na veštačku inteligenciju moglo bi oslabiti tradicionalne veštine prikupljanja obaveštajnih podataka i donošenja odluka
Upotreba veštačke inteligencije od strane Jedinice 8200 u Gazi postavlja presedan za globalno ratovanje, sa implikacijama koje će se protezati daleko van ovog regiona. Uspeh Izraela sa alatima veštačke inteligencije može podstaći druge nacije da razvijaju i usvajaju slične tehnologije, što potencijalno može dovesti do nekontrolisane trke u naoružanju pomoću AI. Autoritarni režimi bi mogli da primene takve sisteme za masovni nadzor ili ciljana ubistva, ugrožavajući elementarna ljudska prava na nezapamćene načine. Neselektivna upotreba veštačke inteligencije u Gazi rizikuje i potpuno obesmišljavanje tradicionalnih zakona ratovanja. Ako moćne vojske daju prioritet efikasnosti u odnosu na etiku, slabije države ili nedržavni akteri mogu slediti taj primer, eskalirajući sukobe širom sveta. Prekomerno oslanjanje na veštačku inteligenciju moglo bi oslabiti tradicionalne veštine prikupljanja obaveštajnih podataka i donošenja odluka. Ako algoritmi, u nekom trenutku, zakažu ili budu hakovani, vojske se mogu suočiti sa operativnim ranjivostima. Rastuće negodovanje javnosti, koje se ogleda i u brojnim X objavama koje snažnim kritičkim tonovima opisuju aktivnosti Jedinice 8200, možda može izvršiti pritisak na vlade da regulišu upotrebu AI u svrhe ratovanja. Međutim, globalni konsenzus o etici veštačke inteligencije za sada ostaje nedostižan, što komplikuje napore da se uspostave obavezujuće norme.
Operacije Jedinice 8200 u sukobu između Izraela i Gaze skreću pažnju na transformativni potencijal visoke tehnologije u ratovanju, ali uz jednako visoku etičku cenu. Sukob u Gazi služi kao upozorenje. Balansiranje tehnološkog napretka sa etičkom odgovornošću, međunarodna saradnja, snažan nadzor i transparentna regulacija su hitno potrebni za sprečavanje budućnosti u kojoj veštačka inteligencija stvara dramatična razaranja i nezapamćeno brutalne posledice sukoba.