Objavljeno

Roboti su rasisti i seksisti, baš kao i ljudi koji su ih stvorili

Mogu li strojevi razmišljati, i ako da, mogu li kritički promišljati rasna i rodna pitanja? Najnoviji izvještaji pokazuju kako sustavi za strojno učenje prikupljaju rasističke i seksističke ideje te ih ugrađuju u jezične obrasce kojima ih uče inženjeri.

Ideja o tome da strojevi mogu biti jednako netrpeljivi kao i ljudi neugodna je za svakoga tko vjeruje u moralnu čistoću digitalne budućnosti, ali svakako nije nova, niti komplicirana. ‘Strojno učenje’ samo je fancy izraz za ‘pronalaženje obrazaca u računalnim podacima’.

“Svi računalni podaci morali su biti prikupljeni u prošlosti, a kako se društvo mijenja, događa se da se suočavamo s obrascima koji reflektiraju prošlost. Ako se ti obrasci koriste kako bi donosili odluke koje se reflektiraju na ljudske živote, oni će sa sobom donositi neprihvatljivu diskriminaciju.” kazala je Lydia Nicholas, viša istraživačica iz inovativne fondacije Nesta.

Roboti su rasisti i seksisti onoliko dugo koliko su ljudi koji su ih stvorili bili rasisti i seksisti, jer strojevi mogu raditi samo na informacijama koje su im dane, a informacije su im uglavnom davali bijeli, heteroseksualni muškarci koji dominiraju na području tehnologije i robotike.

Tako je 1986. godine Medicinsko sveučilište u Londonu proglašeno krivim za rasnu i rodnu diskriminaciju nakon što je proces prijave automatizirao na temelju podataka prikupljenih 1970-ih godina. Program je prikupljao podatke o kandidatima koji su se u prošlosti pokazali uspješnima te je na taj način slagao listu kandidata koji su imali prednost pri intervjuiranju. Ne iznenađuje da su tako prednost pri upisu na fakultet imali bijeli muškarci koji su imali anglo-saksonska imena.

Automatizacija je izvrstan izgovor za šupačko ponašanje, jer, na kraju krajeva, riječ je samo o brojevima, a čarolija ‘velikih podataka’ osigurava i prostor za predrasude.

To je problem koji će sigurno rasti ukoliko ne poduzmemo aktivne mjere da ga popravimo. Ulazimo u eru u kojoj će ‘pametni’ strojevi imati sve više utjecaja na naše živote. Moralnost strojeva nije tema koju smijemo previdjeti kao što to činimo s ljudskom birokracijom.

Prošle je godine Microsoft kreirao kompjuterski program pod nazivom Tay, čiji je cilj bio upijati znanja iz komunikacije s ljudima putem društvenih mreža. Kroz samo nekoliko sati, Tay je izrazio svoju odanost Hitleru i počeo ponavljati alternativne desničarske slogane.

Postoji cijeli niz jednako neugodnih slučajeva robotske netolerancije. Jedan od njih je i onaj u kojemu je Googleova aplikacija za prepoznavanje lica radila isključivo na bjelačkim licima, zbog čega je kao rezultate pretraživanja riječi ‘gorila’ izbacivala fotografije Afroamerikanaca i Afroamerikanki.

https://twitter.com/jackyalcine/status/615329515909156865

Ovo su, međutim, samo najistaknutiji primjeri koji su odjeknuli u medijima. Ostali slučajevi diskriminacije nisu toliko uočljivi na dnevnoj bazi, stoga je manja i mogućnost da će ih netko adresirati i popraviti. Kako je sve više situacija koje svakodnevno utječu na naše živote, a kojima upravljaju strojevi, očito je da ćemo pod hitno morati popraviti vlastite pogreške iz prošlosti na kojima moderna tehnologija bazira svoja znanja.

Trebamo li pokušati graditi robote koji će imati kapacitet moralne prosudbe? Trebaju li tehnolozi i tehnologinje konstruirati umjetne inteligencije koje mogu implementirati osnovne procjene o pravednosti i poštenju? I hoće li u tom slučaju rezultati po ljude imati jednake posljedice poput onih koje imamo priliku gledati u SF filmovima?

Postoje razne zastrašujuće verzije budućnosti, a jedna od njih je i društvo u kojem će ljudi dopustiti da se diskriminatorni obrasci prošlosti upišu u izvorni kod sadašnjosti.

Strojevi uče jezik tako što prežvakuju sav tekstualni sadržaj koji se nalazi na internetu. To znači da svoja znanja baziraju na diskursu kojim su stoljećima upravljali bijeli, zapadnjački muškarci. To ne znači da su roboti rasisti ili seksisti, već da reflektiraju naše vlastite predrasude.

Na kraju krajeva, ljudi razvijaju predrasude na vrlo sličan način. Odrastamo učeći o svijetu kroz priče, jezike i diskurse prijašnjih generacija. Učimo da riječ ‘čovjek’ predstavlja oba roda, dok riječ ‘žena’ to nikada neće moći predstavljati. Učimo da biti ženom znači biti drugotnom, odnosno da riječ ‘žena’ obilježava potklasu ‘čovjeka’. To je jedan od razloga zbog kojih osobe koje rade na promicanju jednakosti i društvene pravde često rade i na promicanju jezičnih barijera. Društvo uporno ignorira činjenicu da jezik svojom dihotomijom utječe na predrasude s kojima se moderno društvo još uvijek suočava.

Jezik je sam po sebi uzorak kojim se može predvidjeti ljudsko iskustvo. On ne samo da opisuje naš svijet, već ga i oblikuje. Netrpeljivost koja je upisana u računalne sustave kakve danas poznajemo daje nam savršenu priliku da uočimo na koji način to djeluje u praksi.

Međutim, za razliku od strojeva, ljudska bića imaju moralne sposobnosti te stoga mogu i trebaju izmijeniti obrasce koji su ispunjeni predrasudama [E.H.] Theguardian

Povezano