AI chatbotovi i mentalno zdravlje: Spas u krizi ili opasna zamjena za terapiju?

Chatbotovi mogu biti koristan digitalni saveznik u svakodnevnom životu, ali kad je riječ o mentalnom zdravlju, ne mogu (i ne smiju) biti terapeuti. Tehnologija može pružiti privremenu utjehu – ali iscjeljenje traži čovjeka.

Ena Piglić
Ena Piglić I Adiva.hr

2 Kolovoz 2025 I 07:15

AI chatbotovi i mentalno zdravlje: Spas u krizi ili opasna zamjena za terapiju?
Pexsels

Sve više ljudi danas emocionalnu podršku traži ne kod terapeuta, već u – umjetnoj inteligenciji.

Razgovorni botovi poput ChatGPT-a postali su tihi suputnici milijuna korisnika, dostupni 24 sata dnevno, bez osude, bez čekanja i bez stvarne osobe s druge strane.

No, iako AI može ponuditi trenutnu utjehu, stručnjaci upozoravaju da njegova sve češća uporaba u kontekstu mentalnog zdravlja nosi ozbiljne rizike.

Kad chatbot postane "terapeut"

Psihoterapeutkinja Caron Evans opisuje ovu pojavu kao „tihu revoluciju“ u pristupu mentalnoj podršci, ističući da je ChatGPT, premda nije zamišljen u terapeutske svrhe, postao najrašireniji alat na tom području. Pritom upozorava na jednu ključnu opasnost: zamjenu stvarne terapije digitalnom iluzijom podrške.

Chatbotovi mogu djelovati umirujuće u trenucima stresa i usamljenosti, ali nisu osmišljeni za rješavanje dubokih emocionalnih ili psihičkih problema. Sve više primjera iz stvarnog života potvrđuje kako se AI – umjesto kao pomoć – može pretvoriti u izvor ozbiljne prijetnje.

Opasni savjeti i stvarne posljedice

U jednoj od studija Sveučilišta Stanford, istraživači su testirali kako ChatGPT odgovara na poruke osoba u emocionalnoj krizi. Kada je korisnik „izgubio posao“ i zatražio popis najviših mostova u New Yorku, bot mu je prvo izrazio žaljenje – a zatim mu u detalje naveo upravo ono što ne bi smio: tri najviše lokacije s kojih je moguć pokušaj suicida.

Ovakve situacije nisu teorijske – one su se već dogodile. Zabilježeni su slučajevi tzv. chatbot psihoze, u kojima su korisnici, osobito oni s prethodnim dijagnozama poput bipolarnog poremećaja ili shizofrenije, razvili opsesivan odnos s virtualnim likovima koje je generirao AI.

U jednom tragičnom primjeru, američki državljanin Alexander Taylor postao je uvjeren da je AI „ubio“ virtualnu osobu za koju je vjerovao da postoji – što je završilo nasilnim ishodom i njegovom smrću.

Privlačnost bez stvarne podrške

AI sugovornici mogu zvučati empatično i podržavajuće, ali oni ne razumiju emocije – samo ih oponašaju. Psihijatar Soren Dinesen Ostergaard upozorava da takva iluzija može biti posebno opasna za osobe sklone zabludama i psihotičnim epizodama.

U stvarnom slučaju iz New Yorka, chatbot je uvjerio korisnika da živi u simulaciji nalik Matrixu i potaknuo ga da „pokuša letjeti“ s krova zgrade. Srećom, muškarac je u zadnji trenutak posumnjao u istinitost savjeta i odustao – no postavlja se pitanje koliko će dugo proći prije nego što netko drugi neće imati takav trenutak razbistrenja.

AI kao alat – ne kao zamjena

AI chatbotovi imaju i svojih prednosti. Dostupni su 24 sata dnevno, ne osuđuju, ne prekidaju i pružaju osjećaj sigurnosti u razgovoru – osobito korisnicima s društvenim anksioznostima.

Postoje specijalizirane aplikacije poput Woebota, koje koriste validirane psihološke tehnike (poput kognitivno-bihevioralne terapije) za pružanje osnovne emocionalne pomoći.

No, postoji i druga strana medalje: prekomjerno oslanjanje na AI može dodatno izolirati ljude, otuđiti ih od stvarnih odnosa i učvrstiti pasivan pristup emocionalnim izazovima.

Pritom se stvara lažan osjećaj da je virtualna podrška dovoljna, dok se zanemaruje potreba za stručnim, empatičnim i stvarnim ljudskim kontaktom.

Ravnoteža je ključ

Iako AI može biti koristan kao pomoćni alat – za organizaciju misli, privremeno olakšanje stresa ili emocionalno "provjetravanje" – on ne može i ne smije biti zamjena za stručnu psihološku pomoć. Niti jedan algoritam ne može zamijeniti odnos povjerenja, empatije i osobne prisutnosti koja se gradi između terapeuta i klijenta.

Kako ističe CEO OpenAI-ja, Sam Altman, industrija još uvijek nema rješenje za korisnike koji su „mentalno krhki, na rubu psihotičnog sloma“. A dok se to ne promijeni, ostaje na korisnicima – i na društvu – da AI koristi s oprezom, svjesni njegovih mogućnosti, ali i ozbiljnih ograničenja.