Kenan Malik: Strah od mašina

Foto: Ivana Tutunović Karić

Prošlog novembra, državna policija u Džordžiji zaustavila je mladog Afroamerikanca, Rendala Kurana Rida, na putu za Atlantu. Uhapšen je po poternici koju je raspisala policija Luizijane zbog dva slučaja krađe u Nju Orleansu. Rid nikada nije kročio u Luizijanu, a kamoli u Nju Orleans. Njegovi argumenti nisu uzeti u obzir, pa je u zatvoru proveo šest dana dok je njegova porodica trošila hiljade dolara na advokate u Džordžiji i Luizijani ne bi li ga izvukla.

Ispostavilo se da je nalog za hapšenje bio zasnovan isključivo na softverskom poređenju lica, iako se to ne pominje ni u jednom policijskom dokumentu: pisalo je samo da je Rida kao počinioca identifikovao „verodostojan izvor“. Kada je utvrđeno da je rezultat programa za prepoznavanje lica bio netačan, slučaj je propao i Rid je pušten na slobodu.

- TEKST NASTAVLJA ISPOD OGLASA -

Njemu se posrećilo da ima porodicu i resurse da stvar istera na čistac. Milioni Amerikanaca ne bi mogli da računaju na društvenu i finansijsku podršku u takvoj situaciji. Rid, međutim, nije jedina žrtva pogrešnog prepoznavanja lica. Brojke su male, ali do sada su svi uhapšeni u SAD usled netačnog poređenja lica bili crnci. To ne iznenađuje, budući da znamo ne samo da sâm dizajn softvera za prepoznavanje lica otežava ispravnu identifikaciju ljudi obojene kože, već i da algoritmi replikuju predrasude ljudskog sveta.

Ridov i slični slučajevi bi trebalo da budu u središtu jedne od najurgentnijih savremenih diskusija – o veštačkoj inteligenciji i rizicima koje ta tehnologija donosi. Međutim, takve priče su skrajnute i malo ko ih smatra naročito značajnim, što pokazuje koliko je rasprava o veštačkoj inteligenciji izobličena i koliko joj je potrebno resetovanje. Nasledili smo strah od sveta koji bi veštačka inteligencija mogla da stvori i uneli ga u razgovor o pametnim tehnologijama. Pojava nove generacije četbota prošle godine, a zatim i njegove poslednje verzije u martu, izazvali su strahopoštovanje i paniku: strahopoštovanje zbog usavršenog oponašanja ljudskog jezika, a paniku zbog mogućeg lažiranja, od školskih zadataka do novinskih izveštaja.

Pre dve nedelje, istaknuti pripadnici tehnološke zajednice podigli su lestvicu strepnje. Između ostalih, Sem Altman, generalni direktor kompanije OpenAI koja pravi ChatGPT, Demis Hasabis, generalni direktor Guglovog programa DeepMind, Džefri Hinton i Jošua Benđo, koje često nazivaju očevima savremene veštačke inteligencije, oglasili su se zajedničkim saopštenjem u kom tvrde da bi veštačka inteligencija mogla da najavi kraj čovečanstva. „Pitanje kako umanjiti rizik od izumiranja zbog veštačke inteligencije“, upozorili su, „trebalo bi da bude globalni prioritet, uz ostale opštedruštvene rizike kao što su pandemije i nuklearni rat“.

Ako toliko ljudi iz Silicijumske doline stvarno veruje da proizvode jako opasne stvari, kao što tvrde, zašto i dalje troše milijarde dolara na konstrukciju, razvoj i usavršavanje tih proizvoda? Zvuči kao kad zavisnik od teških droga moli da ga silom pošalju na odvikavanje. Promocija tih proizvoda kao super-pametnih i super-moćnih sigurno prija egu tehnoloških preduzetnika, bar koliko i njihovom profitu. Pa ipak, veštačka inteligencija nije toliko ni pametna ni moćna. ChatGPT jeste izuzetno vešt u kopiranju teksta tako da liči na ljudski, ali poseduje zanemarljivo razumevanje stvarnog sveta. Novi četbot je, kako se navodi u jednoj analizi, jedva nešto više od „stohastičkog papagaja“.

Daleko smo od svetog grala „veštačke opšte inteligencije“, mašine koja je u stanju da razume ili nauči bilo koji umni zadatak, da ispolji bar osnovni, a kamoli superiorni oblik ljudske inteligencije.

Opsesija izmaštanim strahovima prikriva neke trivijalne, ali mnogo važnije probleme sa veštačkom inteligencijom – one zbog kojih se Rid našao u nevolji i koji bi sve nas mogli da zadese. Govore nam da već živimo u svetu koji oblikuje veštačka inteligencija, od nadzora do dezinformacija. Ključna odlika „novog sveta ambijentalnog nadzora“, primetio je tehnološki preduzetnik Mačej Čeglovski na raspravi u komitetu američkog Senata, jeste to što „nemamo opciju da ne pristanemo, kao što nemamo mogućnost da se izuzmemo iz automobilske kulture time što ćemo odbiti da vozimo“. Upali smo u digitalni panoptikum, a da toga gotovo nismo ni bili svesni. Ipak, sugestija da živimo u svetu koji oblikuje veštačka inteligencija pogrešna je postavka problema. Nema mašine bez čoveka, niti je verovatno da će je biti.

Razlog zbog kojeg je Rid nepravdeno zatvoren ima manje veze sa veštačkom inteligencijom, nego sa odlukama koje su doneli ljudi. Ljudi koji su kreirali softver i trenirali ga. Ljudi koji su ga primenili. Ljudi koji su bez pogovora prihvatili rezultat prepoznavanja lica. Ljudi kojima je odobren nalog za hapšenje jer su tvrdili da je Rida identifikovao „kredibilan izvor“. Ljudi koji su odbili da preispitaju identifikaciju dok ih je Rid ubeđivao da su pogrešili. I tako dalje.

Kada govorimo o „problemu“ veštačke inteligencije, suviše često izostavljamo čoveka. Praktikujemo neku vrstu „moralnog autsorsinga“, kako to kaže sociološkinja i programerka Raman Čaudri: krivimo mašine za odluke ljudi. Brinemo se da će AI „eliminisati radna mesta“ i milione radnika učiniti viškom, umesto da priznamo da odluke donose vlade i korporacije i ljudi koji njima upravljaju. Naslovi nas panično upozoravaju na „rasističke i seksističke algoritme“, dok ljudi koji su ih napravili i oni koji ih koriste ostaju gotovo skriveni.

Drugim rečima, počeli smo da tretiramo mašinu kao činioca, a ljude kao žrtve mašinskog rada. Ironično, upravo naši strahovi od distopije, a ne sama veštačka inteligencija, doprinose stvaranju sveta u kom su ljudi marginalni, a mašine u središtu. Takvi strahovi iskrivljuju i mogućnost pravnog regulisanja. Umesto da regulaciju vidimo kao sredstvo kojim zajednički možemo da oblikujemo svoj odnos prema veštačkoj inteligenciji i novim tehnologijama, zakon postaje nešto što se nameće sa vrha kao sredstvo zaštite ljudi od mašina. Ne treba toliko da nas zabrinjava veštačka inteligencija, već naš fatalizam i slepilo za način na koji ljudska društva već koriste mašinsku inteligenciju u političke svrhe.

The Guardian, 11.06.2023.

Prevela Milica Jovanović

Peščanik.net, 15.06.2023.

NAJNOVIJE

Ostalo iz kategorije

Najčitanije