Sve više ljudi danas emocionalnu podršku traži ne kod terapeuta, već u – umjetnoj inteligenciji.
Razgovorni botovi poput ChatGPT-a postali su tihi suputnici milijuna korisnika, dostupni 24 sata dnevno, bez osude, bez čekanja i bez stvarne osobe s druge strane.
No, iako AI može ponuditi trenutnu utjehu, stručnjaci upozoravaju da njegova sve češća uporaba u kontekstu mentalnog zdravlja nosi ozbiljne rizike.
Kad chatbot postane "terapeut"
Psihoterapeutkinja Caron Evans opisuje ovu pojavu kao „tihu revoluciju“ u pristupu mentalnoj podršci, ističući da je ChatGPT, premda nije zamišljen u terapeutske svrhe, postao najrašireniji alat na tom području. Pritom upozorava na jednu ključnu opasnost: zamjenu stvarne terapije digitalnom iluzijom podrške.
Chatbotovi mogu djelovati umirujuće u trenucima stresa i usamljenosti, ali nisu osmišljeni za rješavanje dubokih emocionalnih ili psihičkih problema. Sve više primjera iz stvarnog života potvrđuje kako se AI – umjesto kao pomoć – može pretvoriti u izvor ozbiljne prijetnje.
Opasni savjeti i stvarne posljedice
U jednoj od studija Sveučilišta Stanford, istraživači su testirali kako ChatGPT odgovara na poruke osoba u emocionalnoj krizi. Kada je korisnik „izgubio posao“ i zatražio popis najviših mostova u New Yorku, bot mu je prvo izrazio žaljenje – a zatim mu u detalje naveo upravo ono što ne bi smio: tri najviše lokacije s kojih je moguć pokušaj suicida.
Ovakve situacije nisu teorijske – one su se već dogodile. Zabilježeni su slučajevi tzv. chatbot psihoze, u kojima su korisnici, osobito oni s prethodnim dijagnozama poput bipolarnog poremećaja ili shizofrenije, razvili opsesivan odnos s virtualnim likovima koje je generirao AI.
U jednom tragičnom primjeru, američki državljanin Alexander Taylor postao je uvjeren da je AI „ubio“ virtualnu osobu za koju je vjerovao da postoji – što je završilo nasilnim ishodom i njegovom smrću.
Privlačnost bez stvarne podrške
AI sugovornici mogu zvučati empatično i podržavajuće, ali oni ne razumiju emocije – samo ih oponašaju. Psihijatar Soren Dinesen Ostergaard upozorava da takva iluzija može biti posebno opasna za osobe sklone zabludama i psihotičnim epizodama.
U stvarnom slučaju iz New Yorka, chatbot je uvjerio korisnika da živi u simulaciji nalik Matrixu i potaknuo ga da „pokuša letjeti“ s krova zgrade. Srećom, muškarac je u zadnji trenutak posumnjao u istinitost savjeta i odustao – no postavlja se pitanje koliko će dugo proći prije nego što netko drugi neće imati takav trenutak razbistrenja.
AI kao alat – ne kao zamjena
AI chatbotovi imaju i svojih prednosti. Dostupni su 24 sata dnevno, ne osuđuju, ne prekidaju i pružaju osjećaj sigurnosti u razgovoru – osobito korisnicima s društvenim anksioznostima.
Postoje specijalizirane aplikacije poput Woebota, koje koriste validirane psihološke tehnike (poput kognitivno-bihevioralne terapije) za pružanje osnovne emocionalne pomoći.
No, postoji i druga strana medalje: prekomjerno oslanjanje na AI može dodatno izolirati ljude, otuđiti ih od stvarnih odnosa i učvrstiti pasivan pristup emocionalnim izazovima.
Pritom se stvara lažan osjećaj da je virtualna podrška dovoljna, dok se zanemaruje potreba za stručnim, empatičnim i stvarnim ljudskim kontaktom.
Ravnoteža je ključ
Iako AI može biti koristan kao pomoćni alat – za organizaciju misli, privremeno olakšanje stresa ili emocionalno "provjetravanje" – on ne može i ne smije biti zamjena za stručnu psihološku pomoć. Niti jedan algoritam ne može zamijeniti odnos povjerenja, empatije i osobne prisutnosti koja se gradi između terapeuta i klijenta.
Kako ističe CEO OpenAI-ja, Sam Altman, industrija još uvijek nema rješenje za korisnike koji su „mentalno krhki, na rubu psihotičnog sloma“. A dok se to ne promijeni, ostaje na korisnicima – i na društvu – da AI koristi s oprezom, svjesni njegovih mogućnosti, ali i ozbiljnih ograničenja.