Politika razvoja sistema zasnovanih na veštačkoj inteligenciji u Sjedinjenim Državama prolazi kroz značajne izmene, koje, možda, nagoveštavaju i buduće globalne zahvate u ovom polju. Naime, američki Nacionalni institut za standarde i tehnologije, a pod njim i telo zaduženo za bezbednost AI, opozvao je dosadašnju politiku Bajdenove administracije, a u direktive budućeg razvoja kao fokus naveo „procvat ekonomske konkurentnosti“.
Nove politike navode i da će se eksplicitno izbegavati termini kao što su „bezbednost veštačke inteligencije“, „odgovorna veštačka inteligencija“ i „pravičnost veštačke inteligencije“, koji su bili centralni u prethodnim smernicama. Nova uputstva su uklonila raniju fokusiranost na rešavanje problema kao što su diskriminatorno ponašanje modela vezano za pol, rasu, starost ili socio-ekonomsku nejednakost. Ubuduće, forsiraće se AI rešenja koja su usklađena sa neutralnom ili ekonomski vođenom perspektivom, a ne sa društveno orijentisanim ciljevima.
Zagovornici novih politika smatraju da se njima uklanjaju politički motivisana ograničenja, omogućavajući AI da služi širim, praktičnim svrhama, a da ne bude oblikovana posebnim društvenim agendama. Kritičari, međutim, tvrde da odustajanje od rada na smanjivanju pristrasnosti rizikuje povećanje postojećih nejednakosti i dovodi do modela koji favorizuju određene grupe ili gledišta. Sve novine još jedan su odraz namera Trampove administracije da smanji federalni nadzor u tehnološkim sektorima i idu naruku kompanijama poput OpenAI koje pozivaju na liberalizaciju propisa o razvoju veštačke inteligencije.
Za nas, obične korisnike, ovo bi moglo značiti život sa veštačkom inteligencijom koja se manje kontroliše u pogledu štete, od deep fake sadržaja koji šire dezinformacije do autonomnih sistema koji donose odluke bez čvrstih zaštitnih mehanizama
Takođe, oni su deo narativa o tehnološkoj dominaciji SAD, gde se „smanjenje ideološke pristrasnosti AI“ vidi kao konkurentska prednost na globalnom nivou. U društvenom smislu, uklanjanje „pravednosti veštačke inteligencije“ je alarmantno jer bi moglo da produbi postojeće nejednakosti i štetu nanese marginalizovanim i manjinskim grupama, dok utvrđuje ekonomske i društvene podele. Dugoročno, može doći do dodatnih ranjivosti već ugroženih delova populacije nedostacima veštačke inteligencije. Ukidanje prioriteta „bezbednosti veštačke inteligencije“ takođe izaziva zabrinutost.

Ranije se Institut za bezbednost veštačke inteligencije, osnovan 2023. godine, bavio rizicima kao što su sajber napadi omogućeni veštačkom inteligencijom ili potencijalna zloupotreba modela za stvaranje hemijskog ili biološkog oružja – scenarija sa katastrofalnim implikacijama po javnu bezbednost. Sada, kada je bezbednost uklonjena sa liste prioriteta, kritičari strahuju da bi se mogli pojaviti moćni, a nekontrolisani sistemi koji ugrožavaju građane.
Za nas, obične korisnike, ovo bi moglo značiti život sa veštačkom inteligencijom koja se manje kontroliše u pogledu štete, od deep fake sadržaja koji šire dezinformacije do autonomnih sistema koji donose odluke bez čvrstih zaštitnih mehanizama. Konačno, najmanje jasan je navod o uklanjanju „ideološke pristrasnosti“ AI. Dok administracija to predstavlja kao način da se osigura neutralnost – nejasno je šta se smatra „ideološkim“.
Da li bi ovaj pritisak mogao da dovede do veštačke inteligencije koja je u skladu sa specifičnim političkim sklonostima, zanemarujući različite perspektive? Istraživači se brinu da bi to moglo da izvrši pritisak na naučnike da se prilagode uskom pogledu na svet koji je odobrila trenutna administracija, gušeći intelektualne slobode i inovacije. Ovo je posebno zabrinjavajuće s obzirom na uticaj lidera tech industrije na Belu kuću. Potencijal da korporativni lični interesi nadjačaju javno dobro je veliki.