Registracija
Ako imaš Voyo pretplatu, registriraj se istim e-mailom i čitaj net.hr bez oglasa! Saznaj više
Toggle password visibility
Toggle password visibility
Već imaš račun?
Obnovi lozinku
OTVORENA PANDORINA KUTIJA /

Stručnjaci otkrili zapanjujuću istinu, a posljedice bi mogle biti dalekosežne

Ako se AI sustavi kontinuirano obučavaju na sve većoj količini dezinformacija koje su sami generirali ili pogrešno predstavili korisnicima, kvaliteta njihovih baza podataka će neizbježno degradirati

403 Forbidden

403 Forbidden


nginx
403 Forbidden

403 Forbidden


nginx

U današnjem digitalnom dobu, gdje su informacije na dohvat ruke, a internet je postao prisutan na svakom mjestu, pouzdanost umjetne inteligencije (Artificial intelligence, AI) postaje ključno pitanje. Nedavne analize stručnjaka za cyber sigurnost došle su do vrlo zanimljivih podataka: vodeći AI chat-botovi, uključujući popularne ChatGPT i Google Gemini, danas pružaju nedovoljno točne ili potpuno lažne informacije gotovo dva puta češće nego prošle godine. 

Ova otkrića otvaraju "Digitalnu Pandorinu kutiju" o budućnosti informiranja na internetu, kao i povjerenju korisnika u AI i rastućem fenomenu "AI halucinacije".

Istraživanje pokazuje da, u prosjeku, top 10 vodećih chat-botova na internetu pokazuje porast u objavljivanju lažnih informacija kao odgovor na upite, s 18 posto prošle godine, na zabrinjavajućih 35 posto u ovoj godini. Ovaj skok, praktično dvostruki, ukazuje na trend koji bi mogao imati duboke posljedice po način na koji konzumiramo informacije i razumijemo svet oko nas.

​Srž problema leži u principu "TITO" (Trash in, Trash out - smeće ulazi, smeće i izlazi). AI modeli, obučavani na ogromnim količinama podataka s interneta, neizbježno apsorbiraju u svoje baze podataka, a kasnije i reproduciraju dezinformacije koje su već prisutne u online ekosustavu. Ovo je posebno izraženo u osjetljivim područjima kao što su zdravstvo, politika, međunarodni odnosi i poslovanje velikih kompanija - svugdje gdje su točne informacije od velikog značaja, a posljedice lažnih informacija mogu biti dalekosežne.

Prijetnje AI halucinacije

​Implikacije ovog trenda su višestruke. Prvo, postoji realna prijetnja "kolapsa modela" (eng. model collapse). Ako se AI sustavi kontinuirano obučavaju na sve većoj količini dezinformacija i lažnih informacija koje su sami generirali ili pogrešno predstavili korisnicima, kvaliteta njihovih baza podataka će neizbježno degradirati. To bi moglo dovesti do začaranog kruga gdje se internet puni "AI lažima", zapravo, beskorisnim ili u najveću ruku obmanjujućim sadržajem koji je proizvela umjetna inteligencija, dodatno zagađujući informativni prostor.

​Drugo, i možda najvažnije, jeste erozija povjerenja. Ako ovi AI sustavi redovito pružaju netočne informacije, povjerenje javnosti u AI, što je ključni motor za njen dalji razvoj i široko prihvaćanje, moglo bi biti nepovratno narušeno. Posljedice bi se mogle manifestirati u sumnje u vijesti, znanost i opće razumijevanje svijeta, stvarajući društvo koje se bori u razlikovanju činjenice od fikcije.

​Pitanje koje se postavlja je je li internet "osuđen na AI haluciniranje i lažne informacije"?

Odgovor leži u kombinaciji tehnoloških rješenja i povećane digitalne pismenosti korisnika. Razvoj sofisticiranijih AI modela koji su sposobni bolje procijeniti vjerodostojnost izvora i filtriraju dezinformacije je od velikog značenja. Međutim, jednako važno je i educiranje javnosti i samih korisnika o kritičkom mišljenju i provjeri informacija.

POGLEDAJTE VIDEO: AI alat optužen za smrt tinejdžera. Pitali smo Chat GPT za obranu u ovom slučaju, evo što kaže

403 Forbidden

403 Forbidden


nginx
Pročitaj i ovo
403 Forbidden

403 Forbidden


nginx
403 Forbidden

403 Forbidden


nginx
Regionalni portali
403 Forbidden

403 Forbidden


nginx