shutterstock 2288727541 copy
Foto: Shutterstock
Iza Ekrana 64

Paradoks poverenja – kako AI hakuje naš um i osećanja

Izdanje 64
2

Sofisticiranost veštačke inteligencije pokreće paranoju, koja narušava poverenje, čineći korisnike ili previše opreznim ili, paradoksalno, podložnijim prevarama

U vremenu u kom su digitalne prevare sve sofisticiranije, socijalni inženjering je mehanizam koji koristeći sposobnosti i slabosti ljudske psihe zaobilazi čak i najrobusnije mere sajber bezbednosti. Za razliku od tradicionalnog hakovanja, koje cilja tehničke ranjivosti uređaja ili aplikacija koje koristimo, društveni inženjering manipuliše emocijama, poverenjem i strahom. Socijalni inženjering koristi fundamentalne aspekte ljudske psihologije – poverenje, strah ili pokoravanje autoritetu. Jačanje društvenog inženjeringa posebno u onlajn komunikacijama podstakao je sve veći stepen nepoverenja, pa čak i iracionalnog straha, kada počinjemo da preispitujemo svaki imejl, video ili poruku.

Osećanje nepoverenja ili straha nastaje kada u okruženju gde je obmanu sve teže uočiti – od bota do AI generisanog video-sadržaja – naš mozak počinje da se fokusira na otkrivanje pretnji, čak i tamo gde ih nema. Sve češće prevare sadržajima kreiranim veštačkom inteligencijom podstiču tzv. paradoks poverenja i paradoks paranoje, gde povećana budnost i štiti i potkopava bezbednost. Preplavljeni stalnim pretnjama, pojedinci mogu da prestanu da veruju naizgled bezbednim izvorima kako bi smanjili stres. Studija Univerziteta u Kembridžu iz 2023. godine otkrila je da je česta izloženost prevarama vođenim veštačkom inteligencijom povećala anksioznost za četvrtinu i smanjila poverenje u digitalne komunikacije za trećinu, ali je paradoksalno povećala podložnost sofisticiranim prevarama zbog zamora neprekidnim procenjivanjem.

Istraživanje nastalo godinu dana kasnije o „paradoksu poverenja“ veštačke inteligencije otkrilo je da 65% građana SAD podržava korišćenje tehnologija veštačke inteligencije (npr. u moderiranju društvenih medija) uprkos tome što im samo polovina veruje, jer ne razumeju način njenog rada. Ovaj raskorak pokazuje kako složenost veštačke inteligencije podstiče paranoju, jer korisnici ne mogu u potpunosti da razumeju ili verifikuju sisteme na koje se oslanjaju. Uticaj veštačke inteligencije na stvaranje paradoksa paranoje potiče od nekoliko tehnologija. Tu su, pre svega, dipfejk sadržaji i kloniranje glasa, kada generativna AI stvara hiperrealistične imitacije, iskorišćavajući poverenje korisnika. MIT Technology Review iz prošle godine govori o dupliranju dipfejk prevara od 2022., pri čemu četvrtina žrtava prijavljuje dugotrajnu anksioznost. Sledeći je automatizovani fišing kada NLP modeli kreiraju personalizovane imejlove, prilagođavajući se odgovorima korisnika u realnom vremenu.

Pojedine studije pokazuju da je 60% ispitanika bilo žrtva fišinga automatizovanog veštačkom inteligencijom, što je uporedivo sa stopama uspeha fišing poruka koje su kreirali ljudi. Još jedan od načina je profilisanje podataka, kada veštačka inteligencija prikuplja ogromne skupove informacija sa platformi poput X kako bi izgradila psihološke profile, predviđajući ranjivosti korisnika. Kompanija Deloitte predviđa da će neke od najčešćih prevara upotrebom AI biti lažno predstavljanje i šeme u kojima prevaranti stvaraju sintetičke identitete kombinovanjem stvarnih i izmišljenih, veštački generisanih informacija kako bi formirali nove, fiktivne persone. Konačno, „black box“ veštačke inteligencije, odnosno njena nejasna, netransparentna priroda, gde ulazi i operacije nisu očigledni, podstiče nepoverenje. Ove tehnologije stvaraju povratnu spregu: sofisticiranost veštačke inteligencije pokreće paranoju, koja narušava poverenje, čineći korisnike ili previše opreznim ili, paradoksalno, podložnijim prevarama zbog mentalne iscrpljenosti.

Vaše mišljenje nam je važno!

Učestvujte u diskusiji na ovu temu, ili pročitajte šta naši čitaoci misle.

2 komentara
Poslednje izdanje