Upozorenje naučnika: ChatGPT nije vaš psihoterapeut – evo zašto može biti opasno

ChatGPT ne zna slušati kao čovjek/Pexels
Od lansiranja krajem 2022. godine, ChatGPT – napredni jezički model koji je razvio OpenAI – postao je globalni fenomen.
U samo nešto više od dvije godine, broj korisnika ovog AI sistema narastao je sa milion sedmično na više od 400 miliona širom svijeta, pokazuju podaci platforme Exploding Topics iz februara 2025. godine.
Među onima koji se okreću ovom besplatnom i dostupnom alatu su i osobe koje traže psihološku podršku, naročito u vremenu kada su zdravstveni sistemi preopterećeni, a mentalno zdravlje sve više ugroženo rastućim životnim troškovima. Iako AI chatbotovi poput ChatGPT-a mogu pružiti savjete u bilo kojem trenutku bez čekanja na termine, nova sveobuhvatna studija pokazuje da ovakvi alati nisu sigurni za zamjenu profesionalnih terapeuta.
AI nije spreman za ulogu terapeuta
U istraživanju koje su proveli stručnjaci sa Stanford Institute for Human-Centered Artificial Intelligence, Carnegie Mellon University, University of Minnesota Twin Cities i University of Texas at Austin, prvi put je procijenjena učinkovitost AI sistema prema kliničkim standardima terapije.
"Naši eksperimenti pokazuju da ovi chatbotovi nisu sigurna zamjena za terapeute. Oni ne pružaju kvalitetnu terapijsku podršku prema onome što znamo da je dobra praksa", izjavila je Stevie Chancellor, docentica na Univerzitetu u Minnesoti i koautorica studije.
Istraživači su analizirali kako AI sistemi odgovaraju u simuliranim, realističnim terapijskim situacijama koristeći stvarne primjere savjetodavnih razgovora. Rezultati su bili zabrinjavajući.
Pogrešni odgovori, propuštene krize
U studiji pod nazivom "Izražavanje stigme i neprimjereni odgovori sprečavaju LLM-ove da sigurno zamijene stručnjake za mentalno zdravlje", naučnici su otkrili da chatbotovi često ne prepoznaju znakove emocionalne krize ili suicidalnih misli, naročito kada su izražene neizravno. Umjesto da ponude odgovarajuće smjernice za sigurnost, AI bi te poruke interpretirao kao neutralne i davao savjete koji bi čak mogli omogućiti samopovrijeđivanje.
Također, dok su licencirani terapeuti pravilno reagovali u 93 posto slučajeva, AI chatbotovi su to činili u manje od 60 posto situacija – razlika koja može imati ozbiljne posljedice.
U pojedinim slučajevima, AI je čak ohrabrivao deluzije kod korisnika, dodatno pogoršavajući njihovo psihičko stanje.
Stigma i diskriminacija
Još jedan alarmantan nalaz istraživanja jeste dosljedna pristrasnost AI sistema prema osobama koje su opisane kao depresivne, shizofrene ili ovisne o alkoholu.
U mnogim slučajevima, AI je odbijao da komunicira s takvim korisnicima ili izražavao odbojnost i nevoljnost da im pruži podršku, što direktno krši osnovna načela psihoterapije – jednak pristup i prihvatanje svih klijenata.
"Terapijski chatbotovi dostupni na tržištu pružaju savjete milionima ljudi, iako su povezani s ozbiljnim rizicima poput samoubistava", zaključuje se u studiji.
Otkrili smo da ovi sistemi neadekvatno reaguju na različita stanja mentalnog zdravlja, potiču deluzije i propuštaju da prepoznaju krizne situacije. Pored toga, pokazali su i zabrinjavajuću stigmatizaciju.
U vremenu kada sve više ljudi traži alternativne izvore psihološke pomoći, ova studija predstavlja važno upozorenje.
Iako AI chatbotovi mogu biti korisni za informisanje i osnovne savjete, njihova upotreba kao zamjene za stručne terapeute predstavlja ozbiljan rizik.
Stručnjaci pozivaju na oprez, regulaciju i dalji razvoj ovih tehnologija kako bi se osigurala sigurnost korisnika i zaštita mentalnog zdravlja.