Djeca vam koriste Chat GPT? Evo zašto trebate znati što ga sve pitaju: 'Tu nema empatije...'
Kako roditelji mogu štititi svoju djecu? Sa stručnjakom za kibernetičku sigurnost Tomislavom Vazdarom razgovarala je reporterka RTL-a Danas Tea Mihanović
Obitelj američkog tinejdžera koji je u travnju počinio samoubojstvo na sudu tvrdi da ga je Chat GPT pozvao da mu se povjerava, savjetovao ga o metodama suicida, čak mu je napisao i oporuku. A alatom umjetne inteligencije dopisivao se mjesecima, a s vremenom počeo s njim dijeliti svoje strahove i suicidalne misli.
Kako roditelji mogu štititi svoju djecu? Sa stručnjakom za kibernetičku sigurnost Tomislavom Vazdarom razgovarala je reporterka RTL-a Danas Tea Mihanović.
Zašto djeca sve više vjeruju umjetnoj inteligenciji?
Djeca sve više vjeruju jer je ta tehnologija vrlo lako dostupna. Djeca se oslanjaju na razne odgovore. Mogu postavljati pitanja koja su 24 sata na dan dostupna, ali upitna je kvaliteta odgovora koje dobivaju iz alata umjetne inteligencije. Ovdje prije svega govorimo o jednom društvenom fenomenu. Ovo nije samo tehnološki problem koji imamo, nego je društveni fenomen zato jer se oslanjamo na sve i vjerujemo svemu što nam umjetna inteligencija daje kao poželjni odgovor. Oni nekad mogu biti vrlo kvalitetni, ali često puta može biti nekakva halucinacija.
Može biti kompletno izmišljeni odgovor koji uopće nema osnovu da je valjan. Roditelji bi trebali nadzirati na koji način djeca koriste te alate i trebali bi znati biti uključeni u život svog djeteta i razumjeti na koji način oni to koristi i za kakvu vrstu pitanja. Ne radi se samo o pitanjima o školskoj zadaći. Radi se o tome da djeca traže često i odgovor na pitanja koje se ne usuđuju postaviti roditeljima. Znamo primjere iz, recimo, Modre laste. Bio je Lastan kojeg su djeca nekad mogla pitati 'Dragi Lastane, kako da mu priđem, kako da razgovaram?'. Onda da bi se čekalo tog Lastana mjesec dana da odgovori ili duže. Ovdje govorimo o instant odgovoru koji dolazi odmah čim dijete postavlja pitanje i nude mu se poželjna rješenja.
Nema neugode?
Nema, jer s druge strane ne vidimo tko razgovara s nama. U ovom slučaju ni nema nikoga. Govorimo o algoritmima koji nam jednostavno daju nekakve odgovore, a algoritam nema empatiju.
Kako gledate na slučaj 16-godišnjaka iz Kalifornije koji je počinio samoubojstvo, njegovi roditelji tvrde na nagovor Chat GPT-ja?
To je prije svega nesretan slučaj i nažalost nije jedini takav slučaj. Već smo imali u prethodnim mjesecima i prošle godine slučajeva gdje je došlo do, nažalost, samoubojstva mladih osoba na nagovor chat botova. To je problem o kojem smo govorili, o uspostavi kontrolnih mehanizama botova. Oni su napravljeni na način da daju opće odgovore i daju poželjne odgovore. Ako mu kažem da sam jako nesretan i usamljen, onda će on na taj način razgovarati sa mnom i pokušat će mi pomoći. Problem je da modeli, kad se čovjek s njima razgovara, uđe u dugotrajne razgovore koji mogu trajati sat, dva,tri. On neće dobiti odmah odgovor da ću počiniti samoubojstvo ili da ću se samoozlijediti. Ali kad razgovaram tri, četiri sata bez prestanka, modeli su napravljeni na takav način da jednostavno popustimo unutarnjoj kontroli.
Koliko je korisno za postavljanje kontrolnih mehanizama i za regulaciju zakona upravo činjenica da su roditelji nesretnog tinejdžera odlučili istupiti i tužiti Open AI?
To je prije svega problem reaktivnih sustava u utrci za novcem. Jedna tvrtka koja zarađuje milijarde dolara na algoritmima umjetne inteligencije i samo jedan izgubljeni mladi život govori da nisu primijenjeni dobri sigurnosni mehanizmi. To su stvari koje treba i zakonski regulirati. I baš ovakve tužbe, nažalost na izgubljenom životu, doprinose do toga da se ubrzano naprave promjene.
403 Forbidden