Tek završeni izbori za predsednika Sjedinjenih Američkih Država zaokružili su ovu „superizbornu“ godinu, koja je donela niz novih, obmanjujućih i manipulativnih strategija političke komunikacije.
Prema izveštaju Centra za borbu protiv digitalne mržnje (CCDH), objavljenom nekoliko dana uoči 5. novembra, poslednji fenomen koji je zabeležen su realistične slike lažnih Amerikanaca, od vojnih veterana i policajaca do aktivistkinja i penzionerki, koje je stvorila veštačka inteligencija, a koji iznose političke stavove i dobijaju milione lajkova, komentara i deljenja. Komentari na ovim objavama ukazuju da mnogi korisnici Fejsbuka slike opažaju kao verodostojne. Uprkos obećanju Fejsbuka da će jasno označiti slike generisane veštačkom inteligencijom, nijedna slika nije odgovarajuće obeležena, navodi CCDH. Postovi za koje se sumnja da su generisani veštačkom inteligencijom, a koje korisnici Fejsbuka tretiraju kao istinite, bili su usmereni ka kritici liberalnih politika demokratske kandidatkinje, kao i zagovaranju konzervativnih, tradicionalnih vrednosti. Fejsbuk je svoju politiku obeležavanja AI generisanih slika najavio još u februaru, u susret predstojećim brojnim izborima širom planete, uz naglasak na sadržaje koji predstavljaju posebno visok rizik od materijalnog obmanjivanja javnosti. Međutim, slike koje je pronašao CCDH ne samo što nisu bile označene, već je dodatni problem bio to što nije identifikovan jasan način prijavljivanja sadržaja pomoću Fejsbukovih servisa. I dok su alati za proizvodnju realističnih lažnih sadržaja sve moćniji, regulativa i samoregulativa platformi zaostaju. U takvoj situaciji jača pritisak na građane, publiku, da se oslone na sopstvenu percepciju i veštinu u razvrstavanju lažnog od istinitog sadržaja na mrežama.
Dok su alati za proizvodnju realističnih lažnih sadržaja sve moćniji, regulativa i samoregulativa platformi zaostaju. U takvoj situaciji jača pritisak na građane, publiku, da se oslone na sopstvenu percepciju i veštinu u razvrstavanju lažnog od istinitog sadržaja na mrežama
Portal Axios daje neke smernice za analizu sadržaja za koji sumnjate da je AI generisan. Počnite od provere izvora – da li je sliku podelio pojedinačni korisnik ili profesionalna medijska kompanija. Individualni profili su čest izvor lažnih sadržaja uz prateće objašnjenje da su ga „upravo dobili od poznanika“. Takođe, ukoliko sadržaj provocira jake emocije ili osnažuje predrasude, koristi zapaljivu terminologiju – postoji šansa da je u pitanju lažna objava. Dodatni izazov za razaznavanje lažnog od pravog stvara i praksa da se obmanjujući sadržaj označi logom koji podseća na legitimnu medijsku organizaciju, tako što se originalno ime medija, recimo, dopuni oznakom regiona ili grada da bi asocirao na dopisništvo (koje, u stvarnosti, ne postoji). Konačno, istraživači savetuju da sadržaj ne delimo ishitreno i bez udubljivanja – Axios navodi slučaj masovnog deljenja AI generisane slike eksplozije u Pentagonu – „očigledno je lažna i to ćete uočiti provedete li više od 10 sekundi ispitujući je, ali većina ljudi ne provede toliko dugo gledajući sliku… pre nego što je dalje podeli”. I dok su jedni očekivali da će se kampanje dezinformisanja ubrzati i pojačati uoči izbora, mnogi strahuju od pokušaja da se javno mnjenje obmane nakon završetka glasanja.
AI Elections Accord je dokument koji su potpisale najveće globalne tech kompanije sa ciljem da se predupredi uticaj i širenje tzv. obmanjujućeg izbornog AI sadržaja, a koji se definiše kao ubedljive slike, odnosno audio i video materijali koji lažiraju ili menjaju izgled, glas ili radnje političkih kandidata, izbornih zvaničnika i drugih ključnih aktera na demokratskim izborima, ili koje pružaju lažne informacije biračima o tome kada, gde i kako mogu zakonito da glasaju. AI Elections Accord usaglasili su, među ostalima, i Amazon, Google, IBM, OpenAI, Microsoft, TikTok, Meta, čak i X. Kakav će biti efekat ove obaveze kompanija preko kojih najveći broj glasača dobija vesti i informacije, videćemo u danima koji dolaze.