Za napad na školu u Iranu okrivljuju umjetnu inteligenciju, ali istina je mnogo mračnija

Nakon što su američke snage 28. februara pogodile osnovnu školu za djevojčice u Minabu na jugu Irana i ubile gotovo 180 ljudi, među kojima su većina bila djeca, dio javnosti i medija brzo je fokus prebacio na pitanje – da li je za izbor mete kriva vještačka inteligencija.

U centru pažnje našao se četbot „Claude“, ali autor analize upozorava da takva interpretacija nema mnogo veze sa realnošću i da skreće pažnju sa ključnih problema. Sistem koji je zapravo korišćen za izbor meta zove se „Maven“ – sofisticirana vojna platforma razvijana godinama, koja povezuje satelitske snimke, obavještajne podatke i senzore kako bi identifikovala ciljeve i vodila ih kroz cijeli proces – od detekcije do napada.

U konkretnom slučaju, zgrada škole i dalje je bila označena kao vojni objekat u obaveštajnoj bazi podataka, iako je još godinama ranije prenamijenjena u školu. Sistem je tu informaciju prihvatio kao validnu, a ubrzani proces odlučivanja nije ostavio prostor za dodatnu provjeru.

- TEKST NASTAVLJA ISPOD OGLASA -

„Četbot nije ubio tu djecu. Ljudi su propustili da ažuriraju bazu podataka, a drugi ljudi su napravili sistem dovoljno brz da tu grešku učini smrtonosnom“, navodi se u analizi sajta Gardijan.

Autor posebno ističe da je opsesija vještačkom inteligencijom zapravo „vrsta psihološkog poremećaja“, jer fokusira pažnju na pogrešno mjesto, dok se zanemaruje stvarni uzrok – način na koji je organizovan vojni sistem odlučivanja.

Sistem Maven nije nastao preko noći. Još 2018. godine bio je jedan od najkontroverznijih projekata u Silicijumskoj dolini. Više od 4.000 zaposlenih u Googleu potpisalo je peticiju protiv saradnje kompanije sa Pentagonom na razvoju vještačke inteligencije za vojnu upotrebu. Organizovani su protesti, dio inženjera je dao otkaze, a Google je na kraju odustao od ugovora.

- TEKST NASTAVLJA ISPOD OGLASA -

Međutim, projekat nije ugašen – preuzela ga je kompanija Palantir, firma za analizu podataka i vojni izvođač, koju je suosnovao milijarder Peter Til. Tokom narednih godina Palantir je razvio Maven u kompleksan sistem koji objedinjuje ogromne količine podataka i omogućava brzo donošenje odluka o napadima.

Ključna ideja bila je da se smanji broj ljudi uključenih u proces i da se odluke donose brže nego što to mogu protivnici. U nekim vojnim vježbama cilj je bio da se donese i do 1.000 odluka o ciljevima na sat – što znači svega nekoliko sekundi po odluci.

Takva logika ima ozbiljne posledice. U tradicionalnim vojnim procesima postojala je takozvana „frikcija“ – vreme za razmišljanje, proveru i preispitivanje informacija. U modernim sistemima poput Maven-a taj prostor gotovo nestaje.

Autor podsjeća da su i ranije postojali slični problemi. Tokom rata u Vijetnamu, američki sistemi za detekciju ciljeva često su davali pogrešne rezultate jer nisu mogli da razlikuju stvarne ciljeve od lažnih. Slično se dogodilo i 1999. godine kada je NATO, zbog greške u podacima, bombardovao kinesku ambasadu u Beogradu.

U svim tim slučajevima, problem nije bio u tehnologiji, već u tome što su sistemi postajali sve brži, dok je prostor za ljudsku procjenu nestajao.

Autor kritikuje i način na koji se odgovornost prebacuje na vještačku inteligenciju. Rasprave o „halucinacijama“ modela i njihovoj kontroli potisnule su mnogo važnija pitanja – ko je donio odluke, ko je odobrio napad i da li je riječ o ratnom zločinu.

„Nazvati ovo problemom vještačke inteligencije daje tim odlukama i tim ljudima mjesto da se sakriju“, navodi se.

U tom smislu, fokus na četbotove poput Claude-a postaje svojevrsni dimni paravan, dok se zanemaruje činjenica da je sistem koji je doveo do tragedije rezultat dugog niza ljudskih odluka – od razvoja tehnologije, preko načina njenog korišćenja, do političkih odluka o vođenju rata.

NAJNOVIJE

Ostalo iz kategorije

Najčitanije