Foto Screenshot
Algoritmi nisu krivi sami po sebi zbog pristranosti, odnosno diskriminaciji na temelju etničkog podrijetla, roda ili drugih čimbenika pri donošenju odluka, već je glavni razlog ljudska pristranost u podacima. Budući da se algoritmi često smatraju neutralnim i nepristranim, oni mogu netočno projicirati veći autoritet od ljudske stručnosti, a u nekim slučajevima oslanjanje na algoritme može istisnuti ljudsku odgovornost za ishode. Iako uopće nije tako!
povezane vijesti
Na margini jednih naših dnevnih novina doznali smo da je tečaj o umjetnoj inteligenciji upisala 21.000 hrvatskih građana. Riječ je o projektu »Elements of Al« koji je, uz Finsku, naišao na jedan od najboljih odjeka u EU-u.
Tečaj je kreiralo Sveučilište u Helsinkiju, a jedna od tema su i društvene posljedice umjetne inteligencije o kojima se u posljednje vrijeme dosta raspravlja. Jedna od posljedica je takozvana algoritamska pristranost.
Naime, umjetna inteligencija, a posebno strojno učenje, primjenjuje se za donošenje važnih odluka u mnogim sektorima. To dovodi do pojma algoritamska pristranost, koji se odnosi na sklonost diskriminaciji na temelju etničkog podrijetla, roda ili drugih čimbenika pri donošenju odluka o prijavama za posao, bankovnim kreditima i slično (spomenimo i nedavnu algoritamsku pogrešku koja je na cijepljenje putem platforme pozvala mlađu populaciju, iako se »algoritamska« prednost daje starijim i rizičnim skupinama).
No algoritmi nisu krivi sami po sebi jer je glavni razlog algoritamske pristranosti ljudska pristranost u podacima. Kako algoritmi proširuju svoju sposobnost organiziranja društva, politike, institucija i ponašanja, sociolozi su se zabrinuli za načine na koje nepredviđeni izlaz i manipulacija podacima mogu utjecati na fizički svijet.
Budući da se algoritmi često smatraju neutralnim i nepristranim, oni mogu netočno projicirati veći autoritet od ljudske stručnosti, a u nekim slučajevima oslanjanje na algoritme može istisnuti ljudsku odgovornost za ishode.
Na primjer, ako alat za filtriranje prijava za posao uči iz odluka koje su donijeli ljudi, moguće je da će algoritam strojnog učenja naučiti diskriminirati žene ili osobe određenog etničkog podrijetla. To je moguće čak i ako su etničko podrijetlo ili rod izostavljeni iz podataka jer će algoritam te informacije moći utvrditi na temelju imena i prezimena ili adrese kandidata.
Proučavanje algoritamske pristranosti najviše se bavi algoritmima koji odražavaju sustavnu i nepravednu diskriminaciju. Algoritmi su kritizirani kao metoda za prikrivanje rasnih predrasuda u odlučivanju.
Zbog načina na koji su se u prošlosti odnosili prema određenim rasama i etničkim skupinama, podaci često mogu sadržavati skrivene pristranosti. Primjerice, crnci će vjerojatno dobiti dulje kazne od bijelaca koji su počinili jednak zločin.
Google se 2015. ispričao kad su se crni korisnici požalili da ih je algoritam za identifikaciju slike u svojoj aplikaciji Fotografije identificirao kao gorile. U 2010. Nikon kamere su kritizirane kad su algoritmi za prepoznavanje slika dosljedno pitali azijske korisnike trepću li.
Takvi su primjeri plod pristranosti u biometrijskim podacima, koji se crpe iz aspekata tijela, uključujući rasne osobine ili promatrane ili pretpostavljene, koji se zatim mogu prenijeti u podatkovne točke.
Godine 2019. istraživanje je otkrilo da je algoritam zdravstvene zaštite favorizirao bijele bolesnike u odnosu na bolesnije crne pacijente. Algoritam predviđa koliko bi pacijenti koštali zdravstveni sustav u budućnosti.
Međutim, troškovi nisu neutralni prema rasi jer su crni pacijenti godišnje imali oko 1.800 američkih dolara manje medicinskih troškova od bijelih pacijenata s jednakim brojem kroničnih bolesti, što je dovelo do toga da algoritam bilježi bijele pacijente jednako podložnim riziku od budućih zdravstvenih problema kao i crne pacijenate koji su patili od znatno više bolesti.
Studija koju su istraživači iz UC Berkeley proveli 2019. otkrila je da su hipotekarni algoritmi bili diskriminirajući prema Latinoamerikancima i Afroamerikancima, koji su diskriminirali manjine na temelju »kreditne sposobnosti« koja je ukorijenjena u američkom zakonu o poštenom zajmu koji zajmodavcima omogućava upotrebu mjera identifikacije kako bi se utvrdilo je li pojedinac dostojan primanja kredita.
Prije dvije godine Spotify je otkrio da je algoritam sustava preporuka pristran prema umjetnicama – preporuke pjesama sugerirale su više muških umjetnika nego ženskih.
Algoritamska pristranost pojavila se u slučajevima koji se kreću od ishoda izbora do širenja govora mržnje. Prisutna je i u oglašavanju na internetu. Internetski oglašivači, naime, češće prikazuju oglase za slabije plaćena radna mjesta ženama nego muškarcima.
Isto tako, kada sadržaje na internetu pretražuju korisnici čije ime zvuči kao afroameričko, mogu naići na oglas za aplikaciju za pristup kaznenim evidencijama, dok se to u drugim slučajevima vjerojatno neće dogoditi.
Uočeno je i da pri pretraživanju stručnjaka sa ženskim imenima sustav pita korisnika je li zapravo mislio na slično muško ime: ako se traže korisnici ženskog imena »Andrea«, sustav pita: »Jeste li mislili ‘Andrew’?«.
Jedan od problema jest što se pomoću sustava Face2Face mogu prepoznati izrazi lica neke osobe, koji se zatim mogu prenijeti na lice druge osobe u videozapisu na YouTubeu. Alat Lyrebird služi za automatsku imitaciju glasa osobe na temelju nekoliko minuta snimljenog uzorka.
U generiranom audiozapisu može se razabrati robotski prizvuk, no pokušaj imitacije i dalje je vrlo dobar.
Na zanimljiv su primjer ukazali istraživači sa Sveučilišta u Austinu. Analizirali su javni skup podataka koji je objavio Netflix, a sadržavao je 10 milijuna ocjena filmova od 500.000 anonimnih korisnika.
Analiza je pokazala da se mnoge korisnike Netflixa zapravo može povezati s njihovim korisničkim računima na platformi Internet Movie Database jer su neke filmove ocijenili u objema aplikacijama.
Stoga su istraživači mogli deanonimizirati podatke koje je prikupio Netflix. Premda se čini da nije ništa strašno ako netko dozna kako smo ocijenili neki film, na temelju pojedinih filmova mogu se otkriti neki aspekti našeg života, kao što su politički stavovi i slično.
Istraživači sa Sveučilišta u Helsinkiju dokazali su da je korisnike moguće identificirati prepoznavanjem njihovih obrazaca unosa teksta, odnosno kratkih intervala između pritisaka na određene tipke pri unosu teksta.
To znači da nas određeni subjekti koji imaju pristup podacima o našem obrascu unosa teksta mogu identificirati sljedeći put kad upotrijebimo njihove usluge, čak i ako odbijemo izravno otkriti svoj identitet. Oni te informacije mogu i prodati bilo kojem potencijalnom kupcu.
Glavna poteškoća pri primjeni umjetne inteligencije i strojnog učenja, umjesto sustava koji se temelje na pravilima, njihova je nedostatna transparentnost. Do toga je dijelom došlo zato što se određeni algoritmi i podaci smatraju poslovnim tajnama koje poduzeća ne žele dati na uvid javnosti.
A čak i kad bi to učinila, bilo bi teško prepoznati dio algoritma ili elemente podataka koji dovode do diskriminirajućih odluka. Velik korak prema transparentnosti učinila je Europska unija donošenjem Opće uredbe o zaštiti podataka.