Najcrnja predviđanja najavljuju da će umjetna inteligencija biti kraj čovječanstva. I veoma su uvjerljiva, piše Bloomberg.
Ovakvo zastrašujuće predviđanje iznio je Eliezer Yudkowsky u časopisu Time prošle sedmice.
“Najvjerovatniji rezultat izgradnje nadljudski pametne umjetne inteligencije jeste da će doslovno svi na Zemlji umrijeti. Ne ‘možda nekad u budućnosti’, nego je ‘to očigledna stvar koja bi se dogodila.’ … Ako neko izgradi premoćnu AI, očekujem da će svaki pripadnik ljudske vrste i sav biološki život na Zemlji umrijeti ubrzo nakon toga.”
Yudkowsky vodi Institut za istraživanje mašinske inteligencije, neprofitnu organizaciju u Berkeleyju u Kaliforniji, i već je opsežno pisao o pitanju umjetne inteligencije.
Yudkowsky je prije nekoliko godina predložio modifikovani Mooreov zakon: Svakih 18 mjeseci minimalni koeficijent inteligencije potreban za uništenje svijeta pada za jedan bod.
Sada je Yudkowsky otišao dalje. On vjeruje da se brzo približavamo kobnoj tački, u kojoj stvaramo AI inteligentniju od nas, koja “ne radi ono što mi želimo, i ne mari za nas niti za osjećajni život generalno. … Vjerovatni rezultat suočavanja čovječanstva sa suprotstavljenom nadljudskom inteligencijom je potpuni gubitak.”
On sugeriše da bi takva umjetna inteligencija mogla lako pobjeći s interneta “kako bi izgradila umjetne oblike života”, zapravo vodeći biološki rat protiv nas. Njegova preporuka je jasna. Trebamo potpuni, globalni moratorij na razvoj umjetne inteligencije.
Ovo ide puno dalje od otvorenog pisma koje su potpisali Elon Musk, Steve Wozniak (suosnivač Applea) i više od 15.000 drugih svjetionika koji pozivaju na šestomjesečnu pauzu u razvoju AI-ja moćnijih od trenutnog stanja tehnike. Ali njihova je motivacija ista kao Yudkowskyjeva: uvjerenje da razvoj umjetne inteligencije s nadljudskim sposobnostima u nedostatku bilo kakvog međunarodnog regulatornog okvira donosi rizik od katastrofe. Jedina stvarna razlika je u tome što Yudkowsky sumnja da se takav okvir može osmisliti u pola godine.
Očita je analogija s dva prethodna polja potencijalno smrtonosnog naučnog istraživanja: nuklearno oružje i biološko ratovanje. Znali smo od vrlo rane faze ovih istraživanja da je potencijal za katastrofu ogroman – ako ne izumiranje čovječanstva, onda barem smrt golemih razmjera. Ipak, napori da se obuzda širenje nuklearnog i biološkog oružja trajali su mnogo duže od šest mjeseci i bili su samo djelomično uspješni. Godine 1946. SAD je predložio Baruchov plan za internacionalizaciju nuklearnog istraživanja. Ali Sovjetski Savez je to odbio i ubrzo je došlo do bjesomučne utrke u nuklearnom naoružanju. Najviše što se postiglo bilo je ograničiti broj zemalja koje posjeduju nuklearno oružje (kroz Ugovor o neširenju nuklearnog naoružanja, koji je stupio na snagu 1970.) te usporiti i na kraju preokrenuti rast arsenala velesila.
Slično tome, Konvencija o biološkom oružju koja je stupila na snagu 1975. godine nije u potpunosti okončala istraživanje takvog oružja. Sovjeti nikada nisu odustali. I znamo da se u Kini i drugdje odvijaju razna vrlo opasna biološka istraživanja, uključujući eksperimente s dobivanjem funkcije s koronavirusima, za koje se čini da su sve vjerojatnije doveli do pandemije Covid-19.
Dakle, ako je Yudkowsky u pravu da je umjetna inteligencija potencijalno opasna kao nuklearno ili biološko oružje, šestomjesečna pauza vjerojatno neće postići mnogo. S druge strane, njegov poziv na potpuno zamrzavanje istraživanja i razvoja ima približno jednake šanse za uspjeh kao i Baruchov plan.
Očita razlika između tih starijih smrtonosnih oružja i umjetne inteligencije jest da većinu istraživanja o umjetnoj inteligenciji provodi privatni sektor. Prema posljednjem izvještaju Stanfordskog instituta za umjetnu inteligenciju usmjerenu na čovjeka, globalna privatna ulaganja u umjetnu inteligenciju iznosila su 92 milijarde dolara u 2022. godini, od čega je više od polovice bilo u SAD-u. Privatne firme proizvele su ukupno 32 značajna modela mašinskog učenja, u poređenju sa samo tri koja su proizvele akademske institucije.
Ali je li analogija s onim što smo nazivali “bombom” tačna? To zavisi od vašem ukusu za naučnu fantastiku. Skoro svi su čuli za Skynet, koji je nastao u filmu Terminator iz 1984. godine, u kojem je glumio mladi Arnold Schwarzenegger. Za mlađe čitaoce, premisa je da “Skynet”, kompjuterski odbrambeni sustav “sagrađen za SAC-NORAD od strane Cyber Dynamicsa”, u budućnosti postaje skitnica i pokušava uništiti čovječanstvo nuklearnim napadom. John Connor predvodi ljudski otpor Skynetu i njegovim robotima Terminatorima. Skynet odgovara slanjem Terminatora u prošlost – jer je naravno putovanje kroz vrijeme jednostavno ako ste stvarno moćna umjetna inteligencija – da ubiju Connorovu majku.
Ipak, postoje mnoge druge verzije umjetne inteligencije u znanstvenoj fantastici. Na primjer, u Životnom ciklusu softverskih objekata Teda Chianga (2010.), umjetna inteligencija se manifestira kao “digijenti” — u početku bezopasni i bespomoćni računalno generirani kućni ljubimci i pratioci, pomalo poput beba čimpanza. Provode prilično dugo vremena učeći da budu inteligentni. U ovoj verziji svijeta, moralni problem je to što smo mi ljudi u iskušenju iskorištavati bogate kao robote-robove ili seksualne igračke.
U biti, brojni kritičari Yudkowskyja žele da vjerujemo da je AI vrijedniji od Skyneta. Pišući na Twitteru, Matt Parlmer, osnivač tvrtke za alatne strojeve GenFab, optužio je Yudkowskyja “i druge tvrdokorne anti-AI kulte” da su “izvan svojih dubina, kako u smislu upravljanja osnovnim tehničkim elementima ovog područja, tako i u smislu njihovih emocionalnih stanja. … Mnogo stvari dolazi, Skynet nije jedna od njih.” Zatvaranje istraživanja umjetne inteligencije, ustvrdio je Parlmer, lišilo bi bolesne ljude potencijalnih otkrića u medicinskoj znanosti.
Nicholas Thompson, glavni izvršni direktor Atlantica, složio se da su Yudkowsky i drugi Ludditi prenaglašavali rizike. “Nedavno sam napravio dječju knjigu za rođendan svog 9-godišnjaka koristeći Dall-E i GPT-4 o Svjetskom prvenstvu između njegovih plišanih životinja”, rekao je osoblju Atlantica. “Medvjedi su pobijedili i njemu se to svidjelo. … Odvojimo svi malo vremena za eksperimentisanje. Napravićemo super stvari i učiti dok to radimo.”
Najelokventniji branilac slobodnog istraživanja i razvoja umjetne inteligencije je Reid Hoffman, osnivač LinkedIna, koji je napisao cijelu knjigu o toj temi… otprilike polovicu knjige generisala je umjetna inteligencija.
Čni se da svi branitelji umjetne inteligencije dosta ulažu u umjetnu inteligenciju. Oni uglavnom priznaju da postoji barem određeni rizik u razvoju AI-a s inteligencijom superiornijom od naše. Čini se da je Hoffmanova krajnja crta: vjerujte nam da ćemo ovo učiniti etički, jer ako nas obuzdate, negativci će biti ti koji će raditi na razvoju i tada ćete možda dobiti Skynet.
Većina AI radi stvari koje nude dobrobiti, a ne prijetnje čovječanstvu. Na primjer, DeepMindov AlphaFold odredio je strukture oko 200 milio proteina, što je veliki naučni korak naprijed.
Pa kako nas onda umjetna inteligencija može uništiti? Ne proizvodeći androide ubojice nalik Arnoldu Schwarzeneggeru u “Terminatoru”, već samo koristeći njegovu moć da nas oponaša kako bi nas pojedinačno izludjela i kolektivno otjerala u građanski rat. Kao što kaže Manny Rincon-Cruz s Hoover Instituta: AI modeli koji mogu generirati tekstove na prirodnom jeziku iz velikih količina podataka ne manipuliraju atomima ili bitovima, oni manipuliraju – nama. Neće nas umjetna inteligencija “izbrisati”, ovdje je jedini stvaran rizik u tome da ćemo se mi kao vrsta raspasti korištenjem AI alata za neplemenite ili podle ciljeve.