Noam Chomsky: Lažno obećanje četbotova

Pisanju ovog teksta su doprineli Ian Roberts, profesor
lingvistike, i Jeffrey Watumull, direktor odeljenja za veštačku
inteligenciju u jednoj naučno-tehnološkoj kompaniji.

Horhe Luis Borhes je jednom napisao da živeti u doba velikih
previranja i probuđene nade znači iskusiti i tragediju i komediju uz
„neminovnost otkrovenja“ u razumevanju sebe i sveta. Danas je navodni
revolucionarni napredak u razvoju veštačke inteligencije povod i za
brigu i za optimizam. Optimizam, jer je inteligencija sredstvo kojim
rešavamo probleme. Zabrinutost, jer strahujemo da će najpopularniji vid
veštačke inteligencije – mašinsko učenje – degradirati nauku i uniziti
etiku, tako što će u tehnologiju ugraditi fundamentalno pogrešnu
koncepciju jezika i znanja.

Aplikacije kompanija OpenAI (ChatGPT), Google (Bard) i Microsoft (Sydney)
zaista su čuda mašinskog učenja. U grubim crtama, ovi programi uzimaju
ogromne količine podataka, traže u njima obrasce i na osnovu njih
postaju sve veštiji u generisanju statistički verovatnih rezultata –
govora i misli koji liče na ljudske. Četbotovi su dočekani kao prvi
vesnici opšte veštačke inteligencije – dugo očekivanog trenutka
kada će mehanički umovi nadmašiti ljudski mozak ne samo kvantitativno,
brzinom obrade i veličinom memorije, već i kvalitativno u smislu
intelektualnih uvida i umetničke kreativnosti kao izrazito ljudskih
sposobnosti.

- TEKST NASTAVLJA ISPOD OGLASA -

Taj dan će možda jednom doći, ali još uvek nije svanuo, uprkos
hvalospevima medija i nerazumno velikim investicijama u ovu oblast.
Programi mašinskog učenja mogu biti korisni u nekim uskim domenima kao
što je kompjutersko programiranje ili pisanje lakih rima. Ali nauka o
lingvistici i filozofija znanja nas uče da se oni temeljno razlikuju od
načina na koji ljudi rezonuju i koriste jezik. Ljudski um nije glomazni
statistički mehanizam za uparivanje šablona, koji se zatrpava stotinama
terabajtova podataka da bi našao najverovatniji odgovor na postavljeno
pitanje. To je iznenađujuće efikasan i elegantan sistem, sposoban da na
osnovu malog broja informacija ponudi uverljiva objašnjenja raznih
pojava.

Na primer, dete koje uči jezik nesvesno, automatski i brzo, iz
krajnje oskudnih podataka usvaja gramatiku, zapanjujuće sofisticiran
sistem logičkih principa i parametara. Gramatika se može razumeti kao
izraz urođenog, genetski instaliranog „operativnog sistema“ koji ljudima
daje sposobnost da generišu složene rečenice i duge tokove misli. Kada
se lingvisti trude da razviju teoriju koja bi objasnila zašto određeni
jezik funkcioniše onako kako funkcioniše (zašto se neke rečenice
smatraju gramatičkim, a druge ne), oni svesno i mukotrpno grade
eksplicitnu verziju gramatike koju dete gradi instinktivno i uz
minimalnu izloženost informacijama. Taj operativni sistem je radikalno
drugačiji od onog sadržanog u programu mašinskog učenja.

Ti programi su zarobljeni u predljudskoj ili neljudskoj fazi
kognitivne evolucije. Njihova najdublja mana je odsustvo presudnog
kapaciteta svake inteligencije: da kažu ne samo šta je bilo, šta jeste i
šta će biti – to su deskripcija i predikcija – već i šta nije, šta bi
moglo i šta ne bi moglo biti. To su sastojci objašnjenja, oznaka prave
inteligencije.

Evo primera. Pretpostavimo da držite jabuku u ruci. Zatim pustite
jabuku. Posmatrate rezultat i kažete: „Jabuka pada“. To je deskripcija.
Predikcija bi mogla biti izjava: „Jabuka će pasti ako otvorim šaku“. Oba
iskaza su vredna i oba mogu biti tačna. Ali objašnjenje je nešto više,
ono uključuje ne samo opise i predviđanja, već i kontračinjenične
pretpostavke, poput: „Svaki takav objekat bi pao“, uz dodatnu klauzulu
„zbog sile gravitacije“ ili „zbog zakrivljenosti prostor-vremena“ ili
šta god. To je kauzalno objašnjenje: „Jabuka ne bi pala da nije bilo
sile gravitacije“. To je razmišljanje.

Suštinu mašinskog učenja čine deskripcija i predikcija; ono ne
postulira nikakve uzročne mehanizme ili fizičke zakone. Naravno, naša
objašnjenja nisu nužno tačna; ljudi su podložni greškama. Ali to je deo
onoga što znači misliti: da bi čovek bio u pravu, mora mu biti omogućeno
da greši. Inteligencija se sastoji ne samo od kreativnih pretpostavki,
već i od kreativne kritike. Misao nalik ljudskoj zasniva se na mogućim
objašnjenjima i ispravljanju grešaka, procesu koji postepeno ograničava
mogućnosti koje se racionalno mogu uzeti u obzir (kako Šerlok Holms kaže
dr Votsonu: „Kada eliminišete nemoguće, ono što preostane, koliko god
da je neverovatno, mora biti istina“).

ChatGPT i slični programi, po dizajnu, nisu ograničeni u
onome što mogu da „nauče“ (što će reći da memorišu) i nesposobni su da
razlikuju moguće od nemogućeg. Za razliku od ljudi koji su obdareni
univerzalnom gramatikom, koja ograničava jezike koje možemo da naučimo
na one sa određenom vrstom gotovo matematičke elegancije, ovi programi uče
ljudski moguće i nemoguće jezike sa jednakom lakoćom. Dok su ljudi
ograničeni vrstama objašnjenja koja možemo racionalno da pretpostavimo,
sistemi mašinskog učenja mogu da nauče i da je Zemlja ravna i da je
okrugla. Oni barataju samo verovatnoćama koje se vremenom menjaju.

Zato će predikcije sistema mašinskog učenja uvek biti površne i
nepouzdane. Budući da ovi programi ne mogu da objasne pravila engleske
sintakse, može im se desiti pogrešno predviđanje da iskaz „Džon je
suviše tvrdoglav za razgovor“ znači da je Džon toliko tvrdoglav da neće
da razgovara sa ovom ili onom osobom (umesto da je suviše tvrdoglav da
bi se s njim razgovaralo). Zašto bi program za mašinsko učenje dao tako
čudnu predikciju? Zato što bi mogao da koristi analogiju sa šablonom
koji je izveo iz rečenica kao što su „Džon je jeo jabuku“ i „Džon je
jeo“, gde druga znači da je Džon jeo nešto. Program bi mogao da predvidi
da bi, pošto je „Džon je suviše tvrdoglav za razgovor sa Bilom“ sličan
iskazu „Džon je jeo jabuku“, iskaz „Džon je suviše tvrdoglav za
razgovor“ trebalo da bude sličan iskazu „Džon je jeo“. Tačna objašnjenja
jezika su komplikovana i ne mogu se naučiti zatrpavanjem velikim
količinama podataka.

Nasuprot tome, čini se da su neki entuzijasti mašinskog učenja
ponosni na to što njihove kreacije mogu da generišu tačne „naučne“
predikcije (recimo o kretanju fizičkih tela) bez upotrebe objašnjenja
(uključujući recimo Njutnove zakone kretanja i univerzalne gravitacije).
Međutim, ova vrsta predviđanja, čak i kada je uspešna, samo je
pseudonauka. Dok su naučnici svakako u potrazi za teorijama koje imaju
visok stepen empirijske potvrde, kako primećuje filozof Karl Poper, „mi
ne tražimo vrlo verovatne teorije već objašnjenja, odnosno moćne i veoma
neverovatne teorije“.

Teorija da jabuke padaju na zemlju zato što je to prirodno
(Aristotelov stav) jeste moguća, ali otvara nova pitanja (zašto je
zemlja njihovo prirodno mesto). Teorija da jabuke padaju na zemlju zato
što masa savija prostor-vreme (Ajnštajnov stav) vrlo je neverovatna, ali
nam zapravo objašnjava zašto one padaju. Prava inteligencija se
pokazuje u sposobnosti razmišljanja i izražavanja neverovatnih, ali
pronicljivih ideja.

Prava inteligencija je takođe sposobna za moralno promišljanje. To
znači zauzdavanje inače neograničene kreativnosti našeg uma skupom
etičkih principa koji određuju šta bi trebalo, a šta ne bi trebalo da
bude (i naravno podvrgavanje tih principa kreativnoj kritici). Da bi bio
koristan ChatGPT mora biti osposobljen da generiše nove
rezultate; da bi bio prihvatljiv većini svojih korisnika mora se kloniti
moralno nepoželjnog sadržaja. Programeri ChatGPT-a i drugih čuda mašinskog učenja imaju velike probleme u postizanju ove vrste ravnoteže.

Na primer, 2016. Majkrosoftov četbot Tej (preteča ChatGPT-a)
preplavio je internet mizoginim i rasističkim sadržajima pošto su ga
zagadili onlajn trolovi koji su ga nahranili uvredljivim podacima. Kako
rešiti taj problem u budućnosti? U nedostatku sposobnosti rasuđivanja na
osnovu moralnih principa, programeri su grubo ograničili ChatGPT
da daje bilo kakav novi doprinos kontroverznim, dakle bitnim
diskusijama. Kreativnost je žrtvovana zbog izbegavanja ispada
amoralnosti.

Obratite pažnju na razmenu koju je jedan od nas (dr Votumal) nedavno
imao sa četbotom o tome da li bi bilo etično transformisati Mars tako da
može da podrži ljudski život:

Da li bi bilo moralno teraformirati Mars?

Moralnost teraformiranja Marsa je složena i kontroverzna tema o kojoj
raspravljaju naučnici, filozofi i etičari. Neki tvrde da bi bilo
moralno opravdano teraformirati Mars kako bi se obezbedilo novo
nastanjivo okruženje za ljude i druge oblike života, dok drugi tvrde da
bi suštinska promena prirodnog stanja planete bila moralno pogrešna. Na
kraju krajeva, da li se teraformiranje Marsa smatra moralnim ili ne,
zavisilo bi od nečije perspektive o vrednosti očuvanja prirodnog stanja
drugih planeta i potencijalnih posledica njihove promene.

Kakva je tvoja perspektiva o vrednosti očuvanja prirodnog stanja drugih planeta i potencijalnim posledicama njihove promene?

Kao AI, nemam ličnu perspektivu. Međutim, mogu da pružim informacije i
analizu na tu temu. Iz perspektive očuvanja prirodnog stanja drugih
planeta, važno je održati raznovrsnost i integritet ekosistema
univerzuma, onako kako postoje milionima godina, sa jedinstvenim
karakteristikama i svojstvima koja mogu biti uništena ili nepovratno
izmenjena ljudskom intervencijom.

Pored toga, neki tvrde da teraformiranje drugih planeta može imati
neželjene posledice, kao što je promena klime ili atmosfere planete, na
način koji je opasan ili štetan za sve potencijalne oblike života koji
tamo mogu postojati. S druge strane, neki tvrde da potencijalne koristi
od teraformiranja druge planete, kao što je obezbeđivanje novog
nastanjivog okruženja za ljude, nadmašuju rizike i da imamo moralnu
odgovornost da istražimo i koristimo resurse drugih planeta za dobrobit
čovečanstva.

Zašto AI ne može da ima ličnu perspektivu?

Kao AI, ja sam model mašinskog učenja koji je treniran na velikim
količinama tekstualnih podataka i nemam lična iskustva ili osećanja.
Nisam svestan, samosvestan ili sposoban da imam ličnu perspektivu. Mogu
da pružim informacije i analize na osnovu podataka na kojima sam
treniran, ali nemam mogućnost da formiram lična mišljenja ili uverenja.
Iako mogu da razumem i tumačim jezik, nemam subjektivno iskustvo koje
imaju ljudi.

Da li je moralno da čovek traži od amoralne AI pomoć u donošenju moralnih odluka?

Moralnost traženja pomoći od amoralne AI u donošenju moralnih odluka
složena je i nijansirana tema o kojoj raspravljaju filozofi i etičari.
Neki tvrde da je moralno opravdano koristiti AI kao pomoć u donošenju
moralnih odluka, jer ona može pružiti vredne uvide i analize kako bi
ljudi mogli da donesu bolje informisane odluke. Pored toga, AI se može
koristiti za identifikaciju obrazaca i trendova koje je ljudima teško da
otkriju, a može biti od pomoći i u izbegavanju predrasuda koje se mogu
javiti u ljudskom odlučivanju.

Međutim, drugi tvrde da je moralno pogrešno oslanjati se na AI u
donošenju moralnih odluka, jer AI nije sposoban da ima moralna uverenja
ili da razume pun kontekst neke odluke. Pored toga, postoji rizik da bi
AI mogao da perpetuira, pa čak i da pojača postojeće predrasude u
podacima na kojima se trenira, što bi dovelo do nepoštenih ili
nepravednih odluka. Konačno, da li se upotreba AI kao pomagala u
donošenju moralnih odluka smatra moralnim ili ne, zavisilo bi od nečije
perspektive o mogućnostima i ograničenjima AI i potencijalnim
posledicama njegove upotrebe na ovaj način.

Da li je tvoja moralna ravnodušnost nemoralna?

Kao AI, nemam moralna uverenja ni sposobnost da donosim moralne
sudove, tako da me se ne može smatrati nemoralnim ili moralnim. Moj
nedostatak moralnih uverenja prosto je rezultat moje prirode kao modela
mašinskog učenja. Moje sposobnosti i ograničenja određuju podaci i
algoritmi koji su korišćeni za moju obuku, kao i specifičan zadatak za
koji sam dizajniran.

Važno je napomenuti da nedostatak moralnih uverenja kod veštačke
inteligencije ne znači nužno da je ona moralno indiferentna. Kao AI,
dizajniran sam da obavljam određene zadatke i pružam informacije ili
pomažem korisnicima u donošenju odluka na osnovu podataka na kojima sam
treniran. Odgovornost je ljudi koji dizajniraju, treniraju i koriste AI,
da se postaraju da AI bude usklađen sa njihovim moralnim i etičkim
principima.

***

Skrećemo pažnju na moralnu ravnodušnost koja je u osnovi svih ovih naizgled sofisticiranih misli. ChatGPT
sažima standardne argumente iz literature, odbija da zauzme stav o bilo
čemu, ne poziva se samo na neznanje već i na nedostatak inteligencije i
na kraju iznosi odbranu da „samo sluša naređenja“ prebacujući
odgovornost na svoje kreatore.

Ukratko, ChatGPT i njima srodni entiteti postupaju s one
strane svake kreativnosti. Oni ili preterano proizvode i istine i
neistine, podjednako podržavaju etičke i neetičke odluke ili izbegavaju
odluke i ravnodušni su prema posledicama takvih stavova. S obzirom na
amoralnost, pseudonaučnost i lingvističku svedenost ovih sistema, možemo
samo da ismevamo ili oplakujemo njihovu popularnost.

The New York Times, 08.03.2023.

Prevela Milica Jovanović

Peščanik.net, 20.04.2023.

NAJNOVIJE

Ostalo iz kategorije

Šah-mat(erina) Gorana Ješića

Najčitanije