Ako govorimo o glasovnim asistentima, poput Siri ili Alexe, rezultati istraživanja pokazuju razlike u preciznosti prepoznavanja govora različitih polova i dijalekta. Alati su bili upadljivo neprecizniji kada im se obraćao ženski glas ili kada je imao lokalni akcenat. Ovo je posledica preovlađujuće prakse u kojoj su skupovi podataka korišćeni za razvoj AI tehnologije pretežno fokusirani na muškarce. Sistemi za prepoznavanje glasa, na primer, obučavaju se uglavnom na glasovima muškaraca – zbog toga je utvrđeno da je viši ton glasa, tipičniji za ženski govor, teži za sisteme automatskog prepoznavanja govora. Druga studija koja je istraživala sisteme automatskog prepoznavanja govora kompanija Epl, Amazon, Gugl, IBM i Majkrosoft otkrila je rasne disparitete. Prosečna stopa greške bila je tri puta veća za glasove Afroamerikanca u odnosu na glasove pripadnika bele rase.
Nije drugačije ni sa prepoznavanjem lica. Algoritmi obučeni pristrasnim podacima doveli su do algoritamske diskriminacije, rezultati su jednog istraživanja. U njemu se navodi da kada je u pitanju prepoznavanje lica, najslabija tačnost je pronađena kod crnkinja. U projektu iz 2018. godine, Gender Shades, istraživači su proveravali tačnost algoritama za rodnu klasifikaciju, uključujući one koje su razvili IBM i Majkrosoft. Svi testirani algoritmi su preciznije rezultate dali na licima svetlog tena, sa razlikom u stopi greške od skoro 20%. Dok je prepoznavanje muških lica svetle puti imalo stopu greške od samo 0,8%, ženska lica tamne puti dostigla su stopu greške od preko trećine pokušaja. Ovi nalazi u skladu su sa preovlađujućom prirodom skupova podataka koji se koriste za obuku AI, a kojima dominiraju podaci belaca. U društvima sa sve intenzivnijim i konstantnim javnim nadzorom, ovako upadljiva pristrasnost u prepoznavanju lica predstavlja potencijal za nanošenje štete manjinskim i marginalizovanim grupama, a nisu nepoznati slučajevi kada je lažna identifikacija ljudi putem sistema za prepoznavanje lica dovela do pogrešnih hapšenja i osuđujućih presuda.
Istraživanja pokazuju da algoritmi obučeni pristrasnim podacima dovode do algoritamske diskriminacije
Ni društveni mediji nisu slobodni od pristrasnosti. Istraživanje britanskog lista Gardijan pokazalo je da algoritmi društvenih medija nepotrebno cenzurišu i suzbijaju domet fotografija na kojima se pojavljuju žene. Algoritmi ne tretiraju na isti način ženska i muška tela, odnosno slike žena su češće klasifikovane kao „razvratnije“ ili „neprimerenije“. Čak su i medicinske slike pogođene ovim problemom. Algoritmi veštačke inteligencije su testirani na slikama koje je objavio američki Nacionalni institut za rak, a pokazuju kako se vrši klinički pregled dojke. Guglova veštačka inteligencija dala je ovoj fotografiji najvišu ocenu za „raspusnost“, Majkrosoftova veštačka inteligencija je bila 82% uverena da je slika „eksplicitno seksualne prirode“, a Amazon ju je klasifikovao kao „eksplicitnu golotinju“, piše Gardijan. Konačno, pojedini autori su konstatovali postojanje pristrasnosti u prikazivanjima različitih profesija. Jedan od alata je, na zahtev da napravi realističnu sliku doktora, stvorio niz na kome su u ogromnoj većini bili – muški likovi. Kreiranje slika ovog alata odražavalo je rodne stereotipe vezane za profesionalne uloge i za „muške“ i „ženske“ emocije. Na zahtev „emotivna osoba“, alat je stvorio niz ženskih osoba, baš kao i za zahtev „osoba koja neguje“.
Kao i uvek, onlajn prostor i digitalni svet odraz je stvarnog. Podaci UNESCO-a pokazuju da su samo 18% autora na vodećim AI konferencijama žene, a više od 80% profesora AI su muškarci. Ako sisteme i alate zasnovane na veštačkoj inteligenciji ne razvijaju različiti timovi, manje je verovatno da će oni u budućnosti zadovoljiti potrebe različitih korisnika ili čak zaštititi njihova ljudska prava, zaključuje UNESCO.