Automobil koji povremeno ubrzava umesto da koči nije spreman za put. Slavina iz koje umesto hladne povremeno teče ključala voda ne treba da bude u vašem domu. Da stvari uglavnom pravilno funkcionišu naprosto nije dovoljno dobro za tehnologije od kojih ljudi u velikoj meri zavise. Dve i po godine posle pojave ChatGPT-a, generativna veštačka inteligencija postaje upravo takva tehnologija.
Čak i bez namere da koriste četbotove, milijarde ljudi su sada prinuđene da stupaju u interakciju sa veštačkom inteligencijom kad pretražuju veb, proveravaju mejl, koriste društvene mreže i kupuju onlajn. Više od 90% kompanija sa liste Fortune 500 koristi OpenAI proizvode, univerziteti pružaju besplatan pristup četbotovima milionima studenata, dok američke obaveštajne službe koriste programe veštačke inteligencije u svojim radnim procesima.
Kad je ChatGPT sredinom juna bio nedostupan nekoliko sati, svakodnevni korisnici, studenti koji pripremaju ispite i kancelarijski službenici zavapili su u očajanju: „Ako uskoro ne proradi, šef će me pitati zašto ništa nisam uradio ceo dan“, napisao je jedan korisnik na sajtu koji prati prekide na internetu. „Sutra idem na razgovor za radno mesto o kom praktično ne znam ništa, ko će me podučiti?!“, napisao je drugi. Tog istog dana, 10. juna 2025, Guglov servis AI pregled mi je napisao da je u stvari 18. jun 2024.
Uprkos velikim obećanjima, ti alati su još uvek loši. Na početku buma veštačke inteligencije, bilo je mnogo problema – četbot Bing je jednom novinaru rekao da ostavi ženu, ChatGPT je otvoreno zagovarao rasizam – ali je sve to uverljivo prikazivano kao greška u ranoj fazi razvoja. Mada se ukupni kvalitet proizvoda generativne veštačke inteligencije dramatično poboljšao, suptilne greške su i dalje tu: pogrešan datum, netačno rešenje matematičkog zadatka, nepostojeće knjige i lažni citati. Guglova pretraga sada bombarduje korisnike AI pregledom na vrhu strane, iznad stvarnih rezultata pretrage ili pouzdanog isečka sa Vikipedije; pregled povremeno sadrži greške, na šta Gugl upozorava u odricanju odgovornosti sitnim slovima na dnu ekrana. Fejsbuk, Instagram i X su preplavljeni botovima i AI smećem. Amazon je prepun lažnih knjiga koje generiše veštačka inteligencija. Ranije ove godine, Apple je isključio AI notifikacije o vestima pošto je alat pogrešno sumirao tekstove. Tome treba dodati i česte prekide u radu kao što je bio pad ChatGPT-a iz juna.
Digitalne usluge i proizvodi, naravno, nikada nisu bili savršeni. Gugl pretraga je uvek imala mnoštvo beskorisnih reklama, dok algoritmi društvenih medija odavno pojačavaju radikalizujuće dezinformacije. Ali kao osnovne usluge za pronalaženje informacija ili povezivanje sa prijateljima, donedavno su funkcionisali. U međuvremenu, dok uvode nove vrste grešaka i kvarova, četbotovi koji služe za prevazilaženje mana starog veba samo pogoršavaju probleme. Primeri toga su Guglovo brzopleto unapređenje pretrage veštačkom inteligencijom, apsurdna izjava Marka Zakerberga da AI može da zameni ljudske prijatelje, tvrdnja Ilona Maska da se njegov četbot Grok bori protiv dezinformacija na platformi X. Što je još važnije, obim novih ambicija industrije veštačke inteligencije – da jednom tehnologijom preradi ne samo internet, već i ekonomiju, obrazovanje, pa čak i funkcionisanje naših vlada – uvećava svaku postojeću manu u upravnoj srazmeri.
Izvori problema generativne veštačke inteligencije nisu misterija. Veliki jezički modeli, kao oni na kojima se zasniva ChatGPT, rade tako što predviđaju znakove u nizu, mapirajući statističke odnose između delova teksta i ideja koje ti delovi predstavljaju. Međutim, predviđanje, po definiciji, nije izvesnost. Četbotovi su jako dobri u pisanju teksta koji zvuči ubedljivo, ali ne donose odluke na osnovu onoga što je činjenično tačno. Umesto toga, oni raspoređuju reči u obrasce prema onome što „zvuči“ ispravno. U međuvremenu, interni algoritmi tih proizvoda toliko su veliki i složeni da nema nade da će istraživači ikada do kraja razumeti njihove sposobnosti i ograničenja. Uprkos svim dodatnim zaštitama koje su tehnološke kompanije unele da učine veštačku inteligenciju preciznijom, ti botovi nikada ne mogu garantovati tačnost. Neprijatne greške su stalna karakteristika proizvoda veštačke inteligencije, a sada postaju karakteristika interneta kao takvog.
Ako je ovo doba veštačke inteligencije, onda živimo u vremenima kvarova. Pa ipak, Sem Altman naziva ChatGPT „proročkim sistemom koji može da uradi sve što se može razumno zamisliti“ i tvrdi da je njegova kompanija OpenAI „izgradila sisteme koji su na mnoge načine pametniji od ljudi“ (podložno diskusiji). Mark Zakerberg je više puta rekao da će Meta ove godine napraviti AI alate za programiranje koji mogu da pariraju ljudskim inženjerima „srednjeg nivoa“. Amazon je objavio interni memorandum u kojem se navodi da kompanija očekuje smanjenje ukupne radne snage kako se bude implementiralo više AI alata.
AI anomalije su ponekad čudne i vrlo zabrinjavajuće. Novija ažuriranja učinila su da ChatGPT postane agresivno servilan, dok je Grok, četbot platforme X, opsednut teorijom zavere o „genocidu nad belcima“. (X je problem pripisao neovlašćenim izmenama bota, što je zatim korigovano.) Nedavno istraživanje Njujork tajmsa opisuje nekoliko slučajeva u kojima su AI četbotovi izazivali psihotične epizode korisnika. Takođe, ovi modeli su ranjivi na razne vrste jednostavnih sajber napada. Više puta sam video kako baguju napredni AI modeli, vrteći jednu istu sekvencu dok se ručno ne isključe. Silicijumska dolina veruje u budućnost interneta zasnovanog na tehnologiji koja neočekivano zakazuje i baguje na najprostijim zadacima i koja se zabrinjavajuće lako može zloupotrebiti. Internet se vraća u beta režim.
Ne kažem da je generativna veštačka inteligencija prevara niti da je beskorisna. Ovi alati su legitimno korisni kada se njima rukuje na promišljen način, uz ljudsku verifikaciju; više puta sam izveštavao o naučnim probojima zahvaljujući tehnologiji, uključujući prave revolucije u neuronauci i otkriću novih lekova. Ali te uspešne priče nemaju mnogo veze sa onim kako mnogi ljudi i kompanije shvataju i koriste AI; marketing je daleko nadmašio inovacije. Umesto ciljane, pažljive primene, mnogi koriste generativni AI za bilo koji zamisliv zadatak, uz blagoslov velikih tehnoloških korporacija. „Svi koriste veštačku inteligenciju za sve“, tipičan je novinski naslov. U tome leži problem: generativna veštačka inteligencija je tehnologija koja funkcioniše dovoljno dobro da korisnici postanu zavisni od nje, ali ne i dovoljno dobro da bi bila istinski pouzdana.
Preusmeravanje interneta i društva na nesavršene i relativno neispitane proizvode nije neizbežan rezultat naučnog i tehnološkog napretka – to je aktivan izbor koji Silicijumska dolina pravi svakodnevno. Na budućem vebu većina ljudi i organizacija zavisiće od veštačke inteligencije u obavljanju većine zadataka. To će biti internet u kom su svaka pretraga, uputstvo, preporuka za večeru, sinopsis događaja, rezime glasovne pošte i imejl – pomalo sumnjivi; u kom su digitalne usluge koje su donedavno radile normalno, postale pomalo nepouzdane. I dok sitne neprijatnosti pojedinačnih korisnika mogu biti u redu, čak su i zabavne, to svakako neće biti AI bot koji pravi pogrešne beleške tokom posete lekaru ili generiše pogrešan plan lečenja.
Proizvode veštačke inteligencije treba tretirati kao rešenja iz granične zone. Možda ne greše dovoljno često da bismo ih odbacili, ali njihove greške nisu dovoljno retke da bismo im ikada u potpunosti verovali. Zasad se nedostaci tehnologije relativno lako otkrivaju i ispravljaju. Ali kako se ljudi sve više navikavaju na veštačku inteligenciju u svom životu – u školi, na poslu, kod kuće – mogli bi prestati da ih primećuju. Sve veći broj istraživanja dovodi stalnu upotrebu veštačke inteligencije u vezu sa opadanjem kapaciteta za kritičko mišljenje; ljudi postaju zavisni od veštačke inteligencije i nerado proveravaju njen rad, ili ne znaju kako. Dok četbotovi popunjavaju svaku digitalnu pukotinu, nastaviće da postepeno uništavaju internet. Ono što nam danas izgleda loše i traljavo, već sutra bi moglo postati uobičajeno.
Matteo Wong, The Atlantic, 18.06.2025.
Prevela Milica Jovanović