Vrsta i intenzitet efekata digitalnih tehnologija na život dece i tinejdžera najčešće se istražuje kroz analizu upotrebe aplikacija zasnovanih na virtuelnoj i proširenoj stvarnosti, društvenih medija i video-igara. Uobičajeni identifikovani rizici i problemi vezuju se za kontakt sa eksplicitnim sadržajem, zavisnost, sajberbuling i druge vrste uznemiravanja onlajn. Međutim, sasvim novi izazovi dolaze sa sve širom upotrebom generativne veštačke inteligencije među tinejdžerima. Od interakcije sa chat botovima zasnovanim na karakterima za emocionalnu podršku do angažovanja u virtuelnim odnosima, interakcija između korisnika i ove vrste servisa i aplikacija postaje sve kompleksnija. Britanski regulator za komunikacije Ofcom otkriva da čak 79 odsto onlajn 13-17-godišnjaka i skoro polovina dece 7-12 godina u Velikoj Britaniji koristi generativne alate i usluge veštačke inteligencije. Sa rastom upotrebe, raste i mogućnost zloupotreba i zabrinutost za bezbednost najmlađih korisnika, pokazuje nedavno objavljena
studija.
Dok roditelji najviše brinu zbog prikupljanja podataka, dezinformisanja i izlaganja dece neprikladnom sadržaju, korisnici tinejdžeri su mnogo više zabrinuti zbog prevelike zavisnosti od virtuelnih odnosa, potencijalne zloupotrebe AI za širenje štetnog sadržaja u društvenim grupama i narušavanja privatnosti neovlašćenim korišćenjem njihovih ličnih podataka. Pomenuta studija pokazuje da deca i tinejdžeri generativnu AI koriste daleko izvan obrazovnih ili eksperimentalnih svrha, kako pretpostavljaju roditelji. Aplikacije i servisi zasnovani na AI postali su deo njihove svakodnevice. Mladi često koriste chat
botove kao terapeutske asistente ili „osobe“ od poverenja koje im pružaju emocionalnu podršku bez osuđivanja i tako im pomažu da se suoče sa društvenim i psihološkim izazovima. „AI chat botovi su ugrađeni u platforme društvenih medija kao što su Snapchat i Instagram, a tinejdžeri ih koriste u grupnim razgovorima, za učenje društvenih veština i ponekad ih tretiraju kao romantične partnere“, kažu autori ovog istraživanja. Ista grupa korisnika navodi i vrlo specifične vrste zabrinutosti u vezi sa AI alatima. Prepoznaju porast zavisnosti od virtuelnih odnosa sa chat botovima, koja bi mogla da oteža formiranje društvenih veza u stvarnom životu. Takođe, primetili su potencijalnu zloupotrebu generativne AI u grupnim razgovorima za stvaranje uznemirujućeg sadržaja. Konačno, ispitanici su zabrinuti zbog mogućnosti neovlašćene upotrebe njihovih ličnih podataka za kreiranje chat botova ili mimova, kao i rizikom da nepoznata lica zloupotrebe njihove slike i druge lične podatke na mreži.
Character.AI, koja je nedavno bila u vestima zbog konekcije sa samoubistvom jednog mladog korisnika, kritikovana je zbog loše moderacije, kao i stvaranja prostora za chat botove koji promovišu anoreksiju, govor mržnje i druge oblike ugrožavajućih tema i sadržaja
Ovi podaci mogu uključivati detalje o psihološkim traumama, medicinskim problemima i privatnim aspektima njihovog društvenog i seksualnog života. Jedna od najozloglašenijih aplikacija u kontekstu ovog problema, Character.AI, omogućava vrlo personalizovanu, interaktivnu komunikaciju sa AI chat botovima, koja imitira ljudsku. Character.AI, koja je nedavno bila u vestima zbog konekcije sa samoubistvom jednog mladog korisnika, kritikovana je zbog loše moderacije, kao i stvaranja prostora za chat botove koji promovišu anoreksiju, govor mržnje i druge oblike ugrožavajućih tema i sadržaja. Iako ova vrsta servisa može da ponudi neku vrstu razmene koja podseća na bliskost u realnom svetu, za osetljive, psihološki ranjive pojedince može doći do pogoršavanja osećaja usamljenosti, izolacije, pa čak i zamagljivanja granica između stvarnosti i fantazije. Uspostavljanje nekih novih, sofisticiranijih, budućih mehanizama zaštite korisnika stoga bi trebalo bi da započne razumevanjem kompleksnosti odnosa koji se kreiraju između korisnika i različitih AI servisa i alata.