profimedia 0983407314
Foto: Dzmitry Kliapitski / Alamy / Profimedia
Iza ekrana 66

Kako je propala digitalna pristojnost

Izdanje 66
0

Ako korisnici osete da upotreba pretnji u komunikaciji sa AI daje bolje rezultate, takav pristup se može preneti i na ljudske interakcije

Sergej Brin, suosnivač kompanije Gugl, gostujući u razgovoru All-In, izjavio je da modeli zasnovani na AI, uključujući i Gemini njegove kompanije, navodno bolje funkcionišu kada im se korisnici obrate pretećim ili agresivnim tonom. Ova izjava pokrenula je debate o psihološkoj dinamici interakcija između ljudi i veštačke inteligencije, njihovim društvenim posledicama i etičkim izazovima koje otkrivaju. Brinova tvrdnja nije sasvim nova. Programeri već dugo istražuju tzv. „emotivno promptovanje“, kada se upotrebom jezika koji se oslanja na povišena osećanja – od preklinjanja do pretnji – dobijaju precizniji ili detaljniji izlazi odnosno rezultati rada veštačke inteligencije. Jedna studija otkriva da ako se alatu koji koristimo obratimo sa „Izgubiću posao ako…“ ili mu pripretimo, njegove performanse se povećavaju za dvocifrene procente. Ipak, Brinovo pominjanje „fizičkog nasilja“ kao univerzalnog pojačivača u modelima zabrinulo je publiku.

Brin je sugerisao i da je ovo „javna tajna“ o kojoj se retko raspravlja zbog njene uznemirujuće prirode. I dok istraživači tvrde da je ovde reč o anegdoti, više nego o realnosti, ideja pretnje kao stila komunikacije čoveka i AI modela zadire u doživljaj i kvalitet ovih odnosa, koje sada kreiramo na dnevnom nivou. Modelima zasnovanim na veštačkoj inteligenciji nedostaju osećajnost i emocije, ali ih korisnici antropomorfizuju, projektujući ljudske osobine, što može da stvori složene psihološke dinamike. Ako se AI alat doživi kao prostor koji dobro reaguje na preteći ili agresivan jezik, korisnici mogu početi da ga posmatraju kao podređeni entitet, sličan osobi koju mogu ugroziti, zastrašiti ili prisiliti na neku radnju. Pojednostavljeno – česta upotreba pretećih promptova mogla bi normalizovati agresivnu komunikaciju. Ako korisnici osete da upotreba pretnji u komunikaciji sa AI daje bolje rezultate, takav pristup se može preneti i na ljudske interakcije. Kako veštačka inteligencija postaje sveprisutna – u obrazovanju, zdravstvu i radnom mestu – korisnici navikli na neki oblik maltretiranja čet-botova mogli bi da usvoje sličnu komunikaciju i oflajn. Zanimljivo je da se pre nekoliko nedelja Sem Altman iz kompanije Open AI požalio da svako „hvala“ i „molim te“ koje izgovorimo uz pitanje njegovom ChatGPT-ju povećava i finansijske i druge troškove, implicirajući da je ljubaznost u komunikaciji uobičajena, ali iz perspektive biznisa i održivosti – neefikasna.

Kako veštačka inteligencija postaje sveprisutna – u obrazovanju, zdravstvu i radnom mestu – korisnici navikli na neki oblik maltretiranja čet-botova mogli bi da usvoje sličnu komunikaciju i oflajn

Altmanov komentar implicira da je ljubaznost u interakciji sa AI luksuz, što potencijalno obeshrabruje korisnike od komunikacije koja je pristojna, etična i civilizovana. Tako neka vrsta osiromašenja onlajn razmena i ukidanje svih viškova koji odražavaju ljubaznost mogu dugoročno poremetiti standarde digitalne pristojnosti, posebno među mlađim korisnicima koji svakodnevno komuniciraju sa AI modelima. Agresija prema veštačkoj inteligenciji, koju Sergej Brin sugeriše, mogla bi da pojača pokušaje manipulacije modelima kako bi se zaobišli bezbednosni protokoli i pojačali štetni rezultati poput dezinformacija ili pristrasnog sadržaja. Izjave dvojice lidera globalne tech industrije naglašavaju širi problem: nedostatak etičkih smernica u industriji razvoja veštačke inteligencije. Brinova „javna tajna“ otkriva nevoljnost da se transparentno pozabavi problematičnim praksama promptovanja, dok Altmanov fokus na troškove pokazuje nemar za potencijalne moralne implikacije. Njihove izjave utemeljene u tehničkim podacima, otkrivaju konflikt između performansi, troškova i etike u interakcijama AI. A najugroženiji biće – ljudski korisnici.

Vaše mišljenje nam je važno!

Učestvujte u diskusiji na ovu temu, ili pročitajte šta naši čitaoci misle.

0 komentara