U pozadini izveštaja o američkom napadu na Iran ostala je informacija da je krajem februara privatna kompanija Antropik odbila ultimatum Pentagona vezan za korišćenje njenih alata zasnovanih na veštačkoj inteligenciji u borbenim akcijama. Ugovor je ugašen ne zbog korupcije ili lošeg proizvoda, već zato što je kompanija insistirala na etičkim ograničenjima svog AI sistema. Pentagon je hteo veštačku inteligenciju bez jasnih etičkih ograda. Antropik je rekao ne. A onda je američka vojska našla drugu kompaniju koja je rekla – da. Iako se čini da je ovo vest iz oblasti tehnologije, ona je zapravo prvorazredna politička vest jer govori o tome ko kontroliše najmoćnije oruđe 21. veka, pod kojim uslovima se ono koristi i šta se dešava kad neko pokuša da postavi granice.
Ultimatum Pentagona
Antropik je američka kompanija koja je razvila Klod (Claude), generativni AI model dizajniran da vodi složene razgovore, analizira tekst i pomaže u istraživanju i pisanju, uz snažan fokus na bezbednost, etiku i pouzdanost odgovora. Antropik je imao ugovor sa Ministarstvom odbrane Sjedinjenih Država po kom je Klod bio jedini AI sistem odobren za rad na poverljivim, zaštićenim vojnim mrežama i projektima. Kompanija je u ugovor ugradila, kako Si-En-En izveštava, dve jasne crvene linije – sistem se ne sme koristiti za masovni nadzor američkih građana i kao autonomno oružje koje donosi odluke o razornim napadima bez direktnog i finalnog ljudskog nadzora. Pentagon je tražio da te odredbe budu uklonjene i da nova formulacija eksplicitno dozvoljava „svaku zakonitu upotrebu“, bez daljih specifikacija. Kada je Antropik to odbio, ministar odbrane SAD, Pit Hegset, osim raskidanja saradnje, najavio je i da će kompanija biti proglašena „rizikom po lanac snabdevanja“, što je oznaka koja se tradicionalno koristila isključivo za strane aktere, pre svega kineske kompanije poput Huaveija.

Svi vojni dobavljači moraće da potvrde da ne koriste Klod u radu sa Pentagonom, a Antropik će, ukoliko najavljena pretnja prođe, postati prva američka kompanija sa ovakvom etiketom. Tek nekoliko sati kasnije, OpenAI je objavio da je sklopio ugovor sa Pentagonom kao zamena. Zanimljivo je da je OpenAI u januaru uneo izmene u interne politike kojim je omogućio upotrebu svojih alata i u vojne svrhe.
Kratkoročni pobednici u ovom slučaju su jasni. OpenAI je preuzeo ugovor sa Pentagonom i učvrstio poziciju u vojnom AI kompleksu. Antropik je izgubio ugovor sa državom, ali je dobio globalnu publiku i legitimitet kao etička alternativa
Povodom ovih dešavanja, izvršni direktor Antropika Dario Amodei, u internom dopisu zaposlenima koji prenosi portal Informacija, navodi da je jedan od pravih razloga sukoba bilo to što kompanija nije pružila „pohvale diktatoru u Trampovom stilu“. Po njegovom mišljenju, kompanija je bila kažnjena ne samo zbog etičkih ograničenja, već i zbog nedovoljne lojalnosti aktuelnoj administraciji.

Brojni upitnici
Prvo pitanje je pitanje moći – ko ima pravo da odlučuje kako se koristi AI u ratu? Pentagon tvrdi da bi vlada, a ne privatne kompanije, trebalo da odlučuju o načinima primene odbrambene tehnologije. Ovaj argument deluje logično – država i njeni predstavnici vode politiku u čijem sklopu su i ratne operacije. Međutim, taj argument pretpostavlja da svi nivoi institucija zaista funkcionišu odgovorno i transparentno. Kada ministar odbrane daje rok kompaniji koja insistira na povišenom oprezu kao što se daje ultimatum neprijatelju, teško je govoriti o demokratskom nadzoru.
Drugo pitanje se fokusira na etiku u kontekstu tržišnih strategija. Antropik nije nevladina organizacija, već kompanija vrednosti procenjene na više od 380 milijardi dolara. Kada je vest o sukobu sa Pentagonom postala javna, popularnost Kloda je eksplodirala, pa je u SAD tokom jednog dana čak prestigao neprikosnoveni ChatGPT na prvom mestu najpopularnijih u AppStore. Etički stav se ispostavio kao sjajan marketing. To ne znači da odluka kompanije nije bila autentična, već da su briga o bezbednosti i privatnosti postale važan kapital.
Treće pitanje je strukturalno – da li etičke kočnice u AI sistemima zaista mogu biti trajne i održive? OpenAI je preuzeo ugovor sa Pentagonom uz formulaciju koja korišćenje njegovih alata vezuje za „postojeće zakone“. To znači da kada se zakon promeni – kada, recimo, Kongres ili predsednik odluče da su autonomni AI sistemi za gađanje legalni – tada će nestati i postojeći mehanizmi zaštite. A kada moralne principe počnu da definišu zakoni, to više nije etika, već pogađanje i kalkulacija.
Kako ovo menja budućnost ratova
Ovaj spor nije usamljeni incident, već samo trenutno najvidljiviji vrh sante leda koja se formira godinama. Američka vojska već deceniju sistemski integriše AI u ono što stručnjaci zovu kill chain, odnosno lanac odlučivanja od identifikacije mete do njenog uništenja. Projekat Maven, koji je Gugl napustio 2018. godine zbog pobune zaposlenih, bio je prvi javni primer. Od tada, sistemi postaju sofisticiraniji, ugovori sve lukrativniji i skuplji, a javna debata sve ređa i nepoželjnija. Ono što se menja nije samo tehnologija koja nezaustavljivo napreduje, već i geopolitička logika. Nekada su trke u naoružanju bile trke u raketama, nuklearnim bojevim glavama, vojnoj industrijskoj proizvodnji. Danas je to trka u razvoju velikih jezičkih modela (LLM), računarskih kapaciteta i AI mogućnosti.
Nekada su trke u naoružanju bile trke u raketama, nuklearnim bojevim glavama, vojnoj industrijskoj proizvodnji. Danas je to trka u razvoju velikih jezičkih modela, računarskih kapaciteta i AI mogućnosti
U budućnosti, može se očekivati da AI kompanije postanu ključni partneri u vojnoj infrastrukturi. Tako tehnološki divovi poput Antropika ili OpenAI postaju geopolitički akteri sasvim nove vrste. Oni nisu političari, nisu ni države, ali nisu ni obične kompanije koje zanima samo profit jer njihovi kapaciteti mogu direktno da odluče o sudbinama čitavih društava širom sveta. Posledice po spoljnu politiku mogu biti dramatične. Odnos prema AI kompanijama počinje da liči na novi oblik tehnološke diplomatije, a lojalnost tehnoloških giganata određenoj politici postaje uslov za pristup vojnim ugovorima i državnoj podršci.

Ko profitira, a ko gubi
Kratkoročni pobednici u ovom slučaju su jasni. OpenAI je preuzeo ugovor sa Pentagonom i učvrstio poziciju u vojnom AI kompleksu. Antropik je izgubio ugovor sa državom, ali je dobio globalnu publiku i legitimitet kao etička alternativa, što ima svoju jasnu tržišnu vrednost. Kompanije poput notornog Palantira, koje nikada nisu ni imale etičke rezerve prema vojnoj primeni AI, u pozadini učvršćuju svoje pozicije dok je pažnja javnosti fokusirana na sve dramatičniji ratni sukob. Dugoročni gubici su trenutno teže predvidivi. Svaki put kad vojska iskoristi neki AI sistem bez strogih etičkih ograničenja, smanjuje se prostor za međunarodni razgovor o regulaciji autonomnog oružja.
Najvažniji aspekt ovog slučaja nije to da li je Antropik bio hrabar ili naivan. On nam ukazuje da su granice između etike, politike, rata i tržišta u svetu napredne veštačke inteligencije postale neuhvatljive i da ih niko sistemski ne čuva
Iako postoje neki okviri – od konvencije UN o određenim konvencionalnim oružjima, preko evropskog AI Akta i NATO AI smernica – pokušaji da se uspostave obavezujuće globalne norme gube tlo pod nogama. Iako nisu zvanično proglašeni neuspešnim, tehnološka stvarnost na terenu ih čini irelevantnim i prevaziđenim sve češće. Naravno, gube i građani, i američki i globalni. Nadzorne infrastrukture koje AI omogućava, u kombinaciji sa erodiranim kočnicama, neće nestati kad/ako se jednog dana promeni administracija. One ostaju, nadograđuju se i, najopasnije – normalizuju. Ono što je danas predmet spora, sutra će postati standard.
Istorijski gledano, vlade su regulisale tehnologiju. Sada se događa nešto novo: tehnološke kompanije pokušavaju da regulišu politiku i da nametnu etička pravila klijentima koji imaju atomske bombe i satelitske mreže. Antropik je rekao Pentagonu: prodaćemo vam AI, ali samo po našim pravilima. To je neverovatna inverzija moći koja, u ovom slučaju, nije dugo trajala.
Konačno, najvažniji aspekt ovog slučaja nije to da li je Antropik bio hrabar ili naivan. On nam ukazuje da su granice između etike, politike, rata i tržišta u svetu napredne AI postale neuhvatljive i da ih niko sistemski ne čuva. Ne postoji međunarodni sud koji može da presudi, ni regulatorno telo koje ima nadležnost. Konačno, ne postoji demokratska procedura koja prati brzinu kojom se ove odluke donose.
Ono što postoji jeste tržište. A na tržištu, neko će uvek biti voljan da potpiše da etičke norme više ne važe.
