
Pazite kad tražite savjete od ChatGPT-a: Jedan je muškarac zbog toga završio u bolnici

Muškarac je završio u bolnici nakon što je slijedio zdravstveni savjet umjetne inteligencije
Šezdesetogodišnji muškarac završio je u bolnici zbog teške paranoje i halucinacija nakon što je slijedio medicinske savjete AI chatbota.
Iako se često upozorava da je pretraživanje simptoma na internetu, primjerice putem Googlea, rizično kada se ne osjećate dobro, ovaj slučaj pokazuje da oslanjanje na ChatGPT za zdravstvene savjete također može imati ozbiljne posljedice.
Od savjeta na internetu do trovanja
Muškarac, čiji je slučaj dokumentiran u časopisu American College of Physicians, je bio zabrinut zbog soli u prehrani i njezinog potencijalnog negativnog utjecaja na zdravlje pa je odlučio konzultirati se s ChatGPT-jem o izbacivanju natrijevog klorida iz prehrane.
Umjetna inteligencija mu je preporučila zamjenu soli bromidom, tvarima prisutnim u malim količinama u morskoj vodi i određenim mineralima. Iako se bromid ranije koristio kao sastojak u različitim farmaceutskim proizvodima, kasnije je otkriveno da je toksičan za ljude u većim količinama.
Muškarac je, ne znajući da je bromid opasan u većim količinama, počeo zamjenjivati sol bromidom koji je naručio preko interneta. Nakon otprilike tri mjeseca postao je paranoičan te je imao halucinacije, zbog čega je završio u bolnici.
Iako ranije nije imao problema s mentalnim zdravljem, u početku je sumnjao da ga je otrovao susjed. Nakon što je dobio infuziju, počeo je prijavljivati i druge simptome, uključujući pojavu akni i angioma. Na temelju tih promjena liječnici su zaključili da pati od bromizma.
Bromizam, stanje izazvano prekomjernom konzumacijom bromida, može izazvati ozbiljne neurološke simptome poput napadaja, zbunjenosti pa čak i kome. Također može uzrokovati anksioznost, depresiju, psihoze, umor i gubitak apetita, među ostalim zdravstvenim problemima, piše LADbible.
Nakon tri tjedna provedenih u bolnici, muškarac je pušten na kućnu njegu, a autor članka upozorio je ljude da ne ponavljaju istu pogrešku te da se ne oslanjaju na zdravstvene savjete ChatGPT-a.
"Treba imati na umu da ChatGPT i slični AI sustavi mogu davati netočne informacije, ne mogu kritički analizirati rezultate i u konačnici mogu pridonijeti širenju dezinformacija", ističe se u izvješću.
S druge strane, tvorac ChatGPT-a, u svojim Uvjetima korištenja jasno ističe da informacije "možda nisu uvijek točne".
"Ne biste se trebali oslanjati na rezultate naših usluga kao na jedini izvor istine ili činjenica, niti kao zamjenu za profesionalni savjet. Naše usluge nisu namijenjene za dijagnosticiranje ili liječenje bilo kojeg zdravstvenog stanja", poručio je Sam Altman.
POGLEDAJTE GALERIJU
POGLEDAJTE VIDEO: Gdje je nestao inzulin? Oboljeli u panici, ljekarne prazne, Halmed tvrdi: 'Nestašice -nema'








403 Forbidden


