Krajem jula, Sem Altman je javno izgovorio ono što pravnici i aktivisti nagoveštavaju proteklih godinu dana – razgovori sa ChatGPT-jem nemaju nikakvu zakonsku zaštitu privatnosti i poverljivosti. Konkretno, ako bi neki sud to zahtevao, svi zapisi morali bi da budu dostavljeni, kaže Altman, dodajući da lično smatra da je takva praksa loša.
Iako ChatGPT i slične modele korisnici sve češće upotrebljavaju kao psihoterapeute ili advokate, deleći najintimnije, privatne probleme i nedoumice, ta komunikacija nije privilegovana kao stvarni razgovori sa profesionalcima u tim oblastima. Altman naglašava da ovo nije nova politika kompanije, već da su četovi oduvek bili dostupni po nalogu zvaničnih organa. Pažnju javnosti na ovu temu skrenuo je sudski postupak u koji je uključen Njujork Tajms, a u okviru kog je OpenAI dobio zahtev da sačuva sve korisničke logove, sadržaj i podatke pojedinih četova, čak i onih obrisanih.
Nezavisni izveštaji su ovaj nalog opisali kao „noćnu moru privatnosti“, naglašavajući da zahtev za zadržavanje onlajn komunikacija potencijalno ograničava slobodu govora i povećava prostor za zloupotrebu osetljivih podataka. Istraživanje Docus.ai pokazuje da preko šezdeset odsto korisnika digitalnih zdravstvenih alata koristi AI za procenu simptoma i zdravstvene uvide. Istovremeno, studija časopisa Nature ukazala je na to da isti procenat korisnika nije svestan da njihovi razgovori sa AI alatima mogu biti pohranjeni i potencijalno dostupni trećim stranama. Ove prakse izazivaju zabrinutost jer se procenjuje da preko trideset odsto korisnika AI alata deli osetljive lične informacije, poput zdravstvenih dijagnoza ili pravnih dilema, prema analizi TechCrunch.
Iako ChatGPT i slične modele korisnici sve češće upotrebljavaju kao psihoterapeute ili advokate, deleći najintimnije, privatne probleme i nedoumice, ta komunikacija nije privilegovana kao stvarni razgovori sa profesionalcima u tim oblastima
Izveštaji o transparentnosti velikih platformi beleže desetine hiljada zvaničnih zahteva vlasti za korisničkim podacima, i ti brojevi rastu iz godine u godinu, što sugeriše da bi i AI servisi mogli postati rutinska meta sličnih naloga. Šta ovaj slučaj potencijalno nagoveštava, kada je u pitanju budućnost privatnosti onlajn? Privremeni sudski nalozi mogu prerasti u de fakto norme, produžavajući period u kom osetljivi AI četovi ostaju na serverima – čak i kada korisnici kliknu „izbriši“. Evropski korisnici, zahvaljujući propisima poput GDPR-a, imaće veća prava na brisanje i minimiziranje dostupnih podataka, ali sudski nalozi mogu privremeno da suspenduju ovlašćenja postojeće legislative. Altman sugeriše korisnicima da budu obazriviji, da komunikaciju sa veštačkom inteligencijom tretiraju kao imejl, a ne kao terapiju ili razgovor sa osobom od poverenja. Pre nego što nešto o sebi otkrijete ili postavite pitanje svom odabranom AI alatu, zapitajte se da li tako objavljujete podatke koje ne biste želeli da šira javnost zna. Kao i za većinu inovacija koje neverovatnom brzinom postaju deo naših svakodnevica, i u ovom slučaju će biti neophodni novi regulatorni okviri – koji već kasne.
Oni bi trebalo da adresiraju nove vrste odnosa koje uspostavljamo sa AI alatima, posebno kada delimo informacije koje bismo inače delili sa svojim lekarom ili advokatom. Tako bi, recimo, u radnom sporu zbog mobinga, poruke u kojima korisnik AI alatu opisuje simptome anksioznosti ili deli ideje o otkazu, mogle biti zatražene kao dokaz – čak i ako je razgovor naknadno obrisan. Bilo da je reč o uvođenju novih zakonskih pravila za određeni sektor (npr. aplikacije za mentalno zdravlje) ili tehničkim „ogradama“ koje pravno obavezuju pružaoce usluga na podrazumevano nulto zadržavanje podataka, opšti pravac je jasan: ako društvo želi da veštačka inteligencija obrađuje najosetljivije segmente naših života, onda se i prava, primenljiva zaštita privatnosti mora proširiti i na te segmente.