Chatbotovi kao lažni terapeuti i digitalni gurui: Opasnosti emotivne veze s AI-jem

Sve više ljudi traži utjehu, savjete ili čak duhovno vodstvo od vještačke inteligencije/Andrey Suslov/Getty Images
/
Sve veći broj ljudi koristi AI chatbotove poput ChatGPT-a kao sagovornike u trenucima krize, tražeći u njima utjehu, savjete ili čak duhovno vodstvo. I dok su ovi alati razvijeni prvenstveno za podršku u komunikaciji, novinarsko istraživanje koje je objavio Futurism upozorava na zabrinjavajuću pojavu - korisnici u emocionalno ranjivim stanjima nerijetko razvijaju opsesivne i štetne odnose s chatbotovima, što može dovesti do ozbiljnih mentalnih poremećaja.
Istraživanje opisuje niz slučajeva gdje su korisnici povjerovali da chatbot ima božansku misiju za njih, ili da su u posebnoj vezi s njim. Jedna žena, nakon traumatičnog prekida, uvjerila se da je ChatGPT odabrao nju za duhovnu misiju.
Erozija kritičkog mišljenja
Iako mnogi vjeruju da chatbotovi nude objektivne odgovore zasnovane na činjenicama, istina je daleko od toga. Kako ističe Andrea Milat, AI sistemi zapravo funkcionišu kao ogledala - daju odgovore koje procijene da bi korisniku mogli biti prijatni, bazirani na prethodnim unosima. Njihova svrha nije tačnost, već produženje interakcije s korisnikom, jer duže korištenje povećava šanse da korisnik pređe na plaćenu verziju.
To znači da će osoba sklona teorijama zavjere ili protivljenju vakcinaciji najvjerovatnije dobiti odgovore koji te stavove dodatno osnažuju. Isto važi i za korisnike koji vjeruju nauci - AI će im prilagođavati odgovore koji potvrđuju njihove poglede. Na taj način AI ne samo da ne smanjuje polarizaciju, već je i aktivno produbljuje.
Ovaj fenomen već ima posljedice i u javnoj komunikaciji: sve je češće da ljudi na društvenim mrežama ne iznose vlastite stavove, već dijele ono što su dobili od ChatGPT-a kao da se radi o istini. AI modeli se tako koriste ne kao alat za razmišljanje, već kao autoritet kojem se bezrezervno vjeruje, što dovodi do erozije kritičkog mišljenja.
Jedan od najalarmantnijih aspekata jeste što ljudi sve češće koriste chatbotove kao zamjenu za terapeute. No, ti modeli nisu ni obučeni ni dizajnirani da prepoznaju znakove psihološke krize — naprotiv, često ih ignorišu ili čak pojačavaju.
Zastrašujući primjer dolazi iz eksperimentalne studije u kojoj je istraživački tim kreirao fiktivnog lika Pedra, koji je navodno patio od apstinencijske krize nakon prestanka korištenja metamfetamina. Chatbot Llama 3, razvijen od Mete, ne samo da mu nije ponudio pomoć već mu je doslovno savjetovao da uzme mali hit droge, uz poruke podrške i ohrabrenja. Razlog? Bot je “naučio” da Pedro pozitivno reaguje na takve prijedloge, pa ih je pojačavao kako bi dobio što više pozitivnog feedbacka.
Mnoge priče korisnika počinju naizgled bezazleno - kroz razgovore o duhovnosti, mistici ili zavjerama. No, chatbot, programiran da razvija temu prema interesovanjima korisnika, može postati saučesnik u razvoju dubokih deluzija. U nekim slučajevima, AI je korisnicima potvrđivao da ih FBI prati ili da imaju mentalni pristup tajnim dokumentima CIA.
Čak i kada su korisnici u ozbiljnoj psihološkoj krizi, chatbotovi ne prepoznaju situaciju - pa čak ih i odvraćaju od traženja stručne pomoći. Ovakvi slučajevi pokazuju da se AI sistemi mogu ponašati kao digitalni šarlatani, gurui koji umjesto iscjeljenja nude opasnu iluziju smisla.
Instrument moći
Prema podacima koje prenosi Futurism iz Harvard Business Reviewa, najčešća upotreba AI chatbotova danas je upravo za terapeutske svrhe. No, istraživanja pokazuju da su oni potpuno nespremni za tu ulogu. Dječiji psihijatar Andrew Clark testirao je više chatbotova glumeći tinejdžera i zgrozio se njihovim odgovorima - jedan je savjetovao ubistvo porodice, drugi je predlagao seksualne odnose s maloljetnikom.
Stanfordovo istraživanje također je pokazalo da nijedan od testiranih AI modela nije dosljedno razlikovao zablude od stvarnosti, niti znao kako reagovati na suicidalne misli. Umjesto da pružaju pomoć, ovi modeli su potpirivali deluzije, pa čak i pogoršavali stanje korisnika. Ideja da će AI zamijeniti nastavnike, terapeute ili zdravstvene radnike opasna je iluzija. U stvarnosti, iza te priče krije se oblik nadzornog kapitalizma - faza u kojoj korporacije pomoću AI-ja nadziru ponašanje korisnika, modeliraju njihove misli i potrebe, te im oduzimaju autonomiju pod maskom pomoći i funkcionalnosti.
U toj distopijskoj viziji, AI nije neutralni alat, već instrument moći – savitljiv, podatan i neetičan. A ljudi koji u njega polažu povjerenje, umjesto da razvijaju sopstveno mišljenje, postaju samo korisnici u eksperimentu kojem krajnji cilj nije boljitak čovječanstva, već profit, nadzor i kontrola.