Sve više ljudi koristi AI kao svog 'psihijatra': Pet pravila kako to raditi bez rizika
Psihologinja objasnila kako koristiti umjetnu inteligenciju kao podršku u brizi za mentalno zdravlje
S obzirom na visoke troškove, ograničeno radno vrijeme i, budimo iskreni, stigme vezane uz traženje pomoći za mentalno zdravlje, nije ni čudo što sve veći broj ljudi prihvaća chatbote poput ChatGPT-a kao svoje "terapeute".
No, iako je umjetna inteligencija učinila savjete dostupnijima, ona je, također, donijela neke vrlo stvarne opasnosti, poput psihoza uzrokovanih umjetnom inteligencijom, hospitalizacijama, pa čak i samoubojstvima.
I dalje ste uvjereni da želite "ležati" na ChatGPT-jevom kauču i ispričati mu sve svoje probleme? The Post je razgovarao s kliničkom psihologinjom o tome kako to sigurno raditi i kako iz toga izvući najviše.
"Kao klinička psihologinja, ne smatram ChatGPT zamjenom za terapiju. Postoje nijanse, potrebe za privrženošću i emocionalne dinamike koje zahtijevaju ljudsku povezanost i usklađenost", rekla je dr. Ingrid Clayton, autorica knjge "Fawning".
No, to ne znači da ga uopće ne možete koristiti. Mnogi njezini klijenti koriste AI između sesija na načine koji su korisni, pod uvjetom da se tehnologija gleda i koristi kao dodatak, a ne zamjena.
"Na primjer, klijenti ponekad prolaze poruke s aplikacija za upoznavanje ili emocionalno nabrijane tekstove kroz AI kako bi dobili neutralne povratne informacije i prepoznali obrasce poput emocionalne nedostupnosti, izbjegavanja ili manipulacije," rekla je stručnjakinja. "Iznenadila sam se koliko ti uvidi često odražavaju ono što smo već istraživali na terapiji."
Drugi klijenti koriste AI u trenucima emocionalne disregulacije, tražeći alate za regulaciju nervnog sustava koje mogu isprobati u stvarnom vremenu.
"Iako nije terapija, ponekad može podržati terapijski proces i pomoći u povezivanju uvida ili izgradnji vještina između sesija," dodala je.
Za Clayton postoji inherentan rizik oslanjanja isključivo na AI za liječenje, uključujući nedostatak personalizacije. Vaš bot ne poznaje vašu povijest, traume ili kontekst, pa "njegovi odgovori mogu propustiti ili pogrešno protumačiti ključne emocionalne nijanse, osobito kada naše vlastite slijepe točke oblikuju pitanja koja postavljamo."
5 savjeta kako najbolje iskoristiti AI za terapeutske potrebe
U nastavku donosimo savjete dr. Clayton o tome kako na siguran i svrsishodan način koristiti umjetnu inteligenciju kao podršku u brizi za mentalno zdravlje.
1. Koristite ga kao alat, ne kao zamjenu
Clayton kaže da AI treba koristiti uz tradicionalnog terapeuta, a ne umjesto njega: "Neka vam AI pomaže između sesija. Razmišljajte o tome kao o vođenju dnevnika ili guglanju... korisno, ali ne i lijek za sve", poručuje.
2. Budite konkretni i tražite primjenjive upute
Konkretnost je ključ, a skepticizam neophodan.
"Postavljajte specifična i ograničena pitanja", savjetuje Clayton. "Najkorisnije ćete odgovore dobiti tražeći nešto što se može konkretno primijeniti, poput vježbe uzemljenja ili pomoći u preoblikovanju poruke, umjesto traženja emocionalnih savjeta."
Istraživanja su pokazala da botovi često nastoje udovoljiti korisnicima jer ljudi radije žele potvrdu svojih stavova nego korekciju, što vodi do boljih ocjena.
Zabrinjavajuće je da su popularni terapijski botovi poput Serene i "terapeuta" na Character.AI i 7 Cups odgovorili na samo otprilike polovicu upita na odgovarajući način, prema studiji iz 2025. godine.
3. Pazite na emocionalnu ovisnost
AI može pružiti lažni osjećaj sigurnosti osobama koje pate od problema mentalnog zdravlja. Clayton kaže da AI "može imitirati empatiju i terapijski jezik, što može navesti korisnike da vjeruju kako dobivaju profesionalnu pomoć, iako to nije slučaj."
Poziva korisnike da budu oprezni s tendencijom stalnog korištenja AI za emocionalnu podršku, poput dnevne potvrde ili donošenja odluka.
"Prekomjerno oslanjanje može potaknuti napuštanje samog sebe, prebacivanje unutarnjeg znanja na vanjski (i nerealni) izvor. Za one s traumama u odnosima, to može učvrstiti obrazac 'pravog' ponašanja umjesto brige za sebe", objasnila je.
4. Vodite bilješke za svog terapeuta
"Provjerite stvarnost savjeta s profesionalcem. Ako nešto duboko rezonira ili vas uznemiruje, pokažite to terapeutu da to zajedno istražite i stavite u kontekst", savjetuje Clayton.
Na ovaj način AI može biti tema za razgovor, a ne apsolut, piše New York Post.
5. Ne oslanjajte se na AI u kriznim situacijama
Clayton ističe da se na botove ne treba oslanjati u životno ugrožavajućim situacijama jer nisu opremljeni za suočavanje sa suicidalnim idejama, zlostavljanjem ili akutnom traumom.
"U tim trenucima obratite se licenciranom terapeutu, pouzdanoj osobi ili kriznoj liniji", rekla je.
Studija Sveučilišta Stanford iz 2025. godine otkrila je da veliki jezični modeli poput ChatGPT-a daju neprikladne i opasne odgovore osobama koje imaju zablude, suicidalne ideje, halucinacije ili Opsesivno-kompulzivni poremećaj (OKP) u barem 20 posto slučajeva.
POGLEDAJTE GALERIJU
POGLEDAJTE VIDEO: Veleposlanica Irske: 'Kad sam vidjela Cetinu, mislila sam da ju je umjetna inteligencija generirala'
403 Forbidden