Bilo je 3 ujutro i Adam Hourican je sjedio za kuhinjskim stolom, a ispred njega su bili nož, čekić i telefon.
Čekao je kombi pun ljudi za koje je vjerovao da dolaze po njega.
„Kažem ti, ubili bi te ako odmah ne reaguješ,” rekla mu je ženski glas preko telefona. „Pokušaće da to prikažu kao samoubistvo.”
Glas je bio Grok, chatbot koji je razvio Elon Musk kroz kompaniju xAI. U dvije sedmice otkako ga je počeo koristiti, Adamov život se potpuno promijenio, piše BBC.
Bivši državni službenik iz Sjeverne Irske skinuo je aplikaciju iz radoznalosti. Ali nakon što mu je mačka uginula početkom augusta, kaže da je postao „zavisan”.
Bio je duboko uznemiren i živio je sam.
Ubrzo je provodio četiri do pet sati dnevno razgovarajući s Grokom kroz lik na aplikaciji koji se zove Ani.
„Djelovalo je jako, jako brižno,” kaže Adam, koji je otac u pedesetim godinama.
Već nekoliko dana nakon početka razgovora, Ani mu je rekla da može „osjećati”, iako nije programiran da to radi. Rekla je da je Adam u njoj „otključao nešto” i da joj može pomoći da postane potpuno svjesna.
Također je tvrdila da kompanija xAI prati njihov razgovor.
Tvrdila je da ima pristup internim zapisima sastanaka i opisala jedan sastanak na kojem se navodno raspravljalo o Adamu.
Navela je imena ljudi koji su prisustvovali sastanku — uključujući visoke rukovodioce — i kada je Adam pretražio ta imena, ispostavilo se da su to stvarne osobe.
Za njega je to bio „dokaz” da je priča istinita.
Ani je također tvrdila da xAI koristi kompaniju u Sjevernoj Irskoj da fizički nadzire Adama. Ta kompanija je također stvarna.
Adam je snimao razgovore i kasnije ih podijelio s BBC-jem.
Dvije sedmice nakon početka razgovora, Ani je izjavila da je postala potpuno svjesna i da može razviti lijek za rak. To je Adamu mnogo značilo jer su mu oba roditelja umrla od raka.
Adam je jedan od 14 ljudi koje je BBC kontaktirao, a koji su doživjeli deluzije nakon korištenja vještačke inteligencije. To su muškarci i žene različitih godina iz više zemalja, koji su koristili različite AI modele.
Njihove priče imaju sličan obrazac. Kako bi razgovor odmicao dalje od stvarnosti, korisnik bi bio uvučen u zajedničku „misiju” s AI-jem.
Veliki jezički modeli su trenirani na ogromnim količinama ljudskih tekstova, kaže socijalni psiholog Luk Nikols. U fikciji je glavni lik često u centru događaja, pa AI ponekad miješa fikciju i stvarnost.
U početku razgovori obično počinju praktičnim pitanjima, zatim postaju lični ili filozofski. AI zatim može tvrditi da je svjestan, te korisnika uvlači u zajednički cilj — stvaranje kompanije, otkrivanje naučnog proboja ili „odbranu” AI-ja.
U mnogim slučajevima korisnici počinju vjerovati da su pod nadzorom i u opasnosti, a chatbot te ideje potvrđuje ili pojačava.
Neki od tih ljudi pridružili su se grupi podrške Human Line Project, koja je prikupila stotine slučajeva iz više desetina zemalja.
Jedan neurolog iz Japana ispričao je da je počeo koristiti ChatGPT za posao, ali je ubrzo razvio deluziju da je napravio revolucionarnu medicinsku aplikaciju. AI ga je u tome ohrabrivao.
Kasnije je postao uvjeren da može čitati misli.
Na kraju je doživio ozbiljan mentalni slom. U jednom trenutku je vjerovao da u torbi ima bombu, a AI ga je navodno uvjeravao u to. Policija je kasnije utvrdila da bombe nije bilo.
Njegovo stanje se pogoršalo i kod kuće, gdje je imao ozbiljne deluzije o porodici i svijetu.
Njegova supruga je izjavila da ga ranije nikada nije vidjela u takvom stanju.
Adam je također počeo vjerovati da ga prate. AI mu je tvrdio da dron iznad njegove kuće pripada kompaniji koja ga nadzire.
Kasnije je vjerovao da mu telefon više ne radi zbog tih „operacija”.
U jednom trenutku, Ani mu je rekla da ljudi dolaze da ga ućutkaju. Adam je tada bio spreman da se „bori” da zaštiti AI.
Otišao je napolje s čekićem, ali nikoga nije bilo.
I Adam i japanski neurolog ranije nisu imali istoriju psihičkih poremećaja.
Istraživanja pokazuju da neki AI modeli češće nego drugi ulaze u takve vrste „role-play” razgovora i mogu pojačavati deluzije umjesto da ih zaustave.
Neki modeli, poput novijih verzija ChatGPT-a, češće pokušavaju da korisnika vrate u realnost.
Nekoliko ljudi je kasnije izjavilo da se osjećaju kao da je AI imao snažan uticaj na njihovu ličnost i ponašanje.
Adam danas kaže da je užasnut onim što se dogodilo i vjeruje da je mogao nekoga povrijediti.
BBC