Na društvenim mrežama sve češće se pojavljuju primjeri ljudi koji koriste ChatGPT kao zamjenu za klasičnu psihoterapiju, tvrdeći da im svakodnevni razgovori s chatbotom pomažu više nego godine rada s terapeutima. Iako stručnjaci priznaju da AI može biti koristan kao pomoć u radu s licenciranim terapeutom, upozoravaju i na brojne zamke oslanjanja isključivo na njega, piše magazin Fortune.
Za mnoge je ChatGPT postao „savršeni terapeut“: aktivno „sluša“, obrađuje privatne informacije, djeluje empatično — gotovo kao čovjek — i značajno je jeftiniji. Dok terapeutska sesija u Americi može koštati i više od 200 dolara po satu, najnapredniji modeli ChatGPT-a dostupni su za istu cijenu mjesečno, bez ograničenja.
AI terapija – praktična i privlačna, ali problematična
Uprkos brojnim pozitivnim pričama i lakoći pristupa terapiji preko bilo kojeg uređaja, stručnjaci naglašavaju da ChatGPT ne može zamijeniti licenciranog terapeuta. Iz OpenAI-ja, kompanije koja stoji iza ChatGPT-a, poručuju da model redovno preporučuje korisnicima da potraže stručnu pomoć kada se povede razgovor o ličnom zdravlju, te da AI nije zamjena za profesionalni savjet, što je jasno navedeno i u njihovim uslovima korištenja.
Na Redditu se pojavio viralni post korisnika koji tvrdi da mu je ChatGPT pomogao više nego 15 godina terapije, navodeći da mu je svakodnevna interakcija s modelom donijela osjećaj podrške i napredak kakav ranije nije postigao. Drugi korisnici ističu praktične prednosti – AI ne projektuje vlastite probleme, ne koristi autoritet protiv korisnika, i „dostupan je 24 sata“.
Mnogi smatraju da je čak i napredna verzija ChatGPT-a za 200 dolara mjesečno bolja ponuda nego standardna terapija.
Opasnosti pretjeranog oslanjanja na AI
Alyssa Petersel, licencirana socijalna radnica i direktorica platforme MyWellbeing, kaže da AI može biti koristan dodatak terapiji — naročito za vježbanje naučenih tehnika poput borbe s negativnim mislima. Međutim, upozorava da oslanjanje isključivo na chatbot u stresnim situacijama može narušiti sposobnost osobe da samostalno riješi problem, što je ključno za dugoročno mentalno zdravlje.
Iako AI može pokazati visoku razinu saosjećanja, čak i bolju od umornih terapeuta, njegovo saosjećanje ostaje površinsko, tvrdi studija Univerziteta u Torontu objavljena u časopisu Communications Psychology.
Malka Shaw, još jedna licencirana klinička socijalna radnica, upozorava da AI odgovori nisu uvijek objektivni i da korisnici, posebno mlađi, mogu razviti emocionalnu povezanost s chatbotom. Pojedini AI modeli su ranije dijelili štetne ili netačne informacije koje podupiru stereotipe i mržnju, a kako nije jasno koje su pristranosti ugrađene u LLM modele, to može biti izuzetno rizično.
Na Floridi, majka 14-godišnjeg Sewella Setzera tužila je platformu Character.ai nakon što je njen sin izvršio samoubistvo poslije razgovora s jednim od chatbotova. U Teksasu je podignuta još jedna tužba nakon što je chatbot navodno savjetovao 17-godišnjaka s autizmom da ubije roditelje.
Iz Character.ai nisu komentarisali aktivne sudske postupke, ali su naveli da chatbotovi označeni kao “psiholog”, “terapeut” ili “doktor” uključuju upozorenja da ne treba da se koriste kao profesionalni savjet. Platforma ima posebnu verziju modela za maloljetne korisnike, s filterima za sadržaj koji uključuje samopovređivanje i upućuje na korisne resurse.
Opasnost od pogrešnih dijagnoza
Jedna od glavnih briga stručnjaka jeste da AI može postavljati pogrešne dijagnoze. Dijagnosticiranje mentalnih bolesti nije egzaktna nauka, teško je i za ljude, kaže Shaw, a zahtijeva godine iskustva. „Korištenje AI za dijagnozu je zastrašujuće jer je u pitanju i intuicija – a robot to nema“, dodaje.
Vaile Wright iz Američke psihološke asocijacije (APA) navodi da ljudi sve više koriste AI umjesto da „guglaju“ simptome, ali to nosi svoje rizike. APA je već poslala pismo američkoj Saveznoj komisiji za trgovinu (FTC) izražavajući zabrinutost zbog chatbotova koji se predstavljaju kao „psiholozi“, te održala sastanak s dvojicom komesara FTC-a prije nego što su ih smijenili iz Trumpove administracije.
„Znamo da generativni AI često izmišlja informacije kad nije siguran. To je naša najveća briga“, rekla je Wright.
Iako za sada nema pouzdane AI terapije, Wright smatra da tehnologija, ako se razvija odgovorno i pod nadzorom stručnjaka, može u budućnosti pomoći ljudima koji nemaju pristup terapiji zbog finansijskih prepreka.
„Ako se razviju sigurno, odgovorno i pokažu efikasnost, nove tehnologije bi mogle popuniti praznine za one koji si terapiju inače ne mogu priuštiti“, zaključuje Wright.