ŠTO NE VALJA NA OVOJ SLICI? / Eksplozija Pentagona postala viralna na društvenim mrežama: Evo kako razotkriti umjetnu inteligenciju na djelu

Image
Foto: Screenshot/Twitter

Brojni generativni AI alati uz malo truda mogu stvoriti realistične slike

23.5.2023.
17:20
Screenshot/Twitter
VOYO logo

Lažna slika koja pokazuje veliku eksploziju u blizini Pentagona postala je u ponedjeljak viralna te čak izazvala kratki pad na burzi, javlja Al Jazeera.

Slika se u roku od nekoliko minuta proširila društvenim mrežama, a dodatnu pomutnju izazvala je činjenica da su je prenijeli i neki provjereni profili.

Tekst se nastavlja ispod oglasa

Iako je brzo potvrđeno kako se incident nije dogodio, lažna vijest još je jednom nametnula pitanje sposobnosti umjetne inteligencije (AI) da proizvodi dezinformacije.

Istraživači društvenih medija, uključujući Nicka Watersa iz Bellingcata, online grupe za provjeru vijesti, brzo su reagirali te ukazali da slika pokazuje određene nedostatke.

Tekst se nastavlja ispod oglasa

Waters je istaknuo da je teško tek tako stvoriti lažnu vijest o velikom događaju. Naglasio je da nije bilo drugih svjedoka iz prve ruke koji bi potvrdili da se eksplozija dogodila, što je neobično s obzirom na prometno područje kao što je Pentagon.

"Zbog toga je tako teško (rekao bih da je nemoguće) stvoriti vjerodostojnu lažnu predstavu o takvom događaju", tweetao je Waters.

Tekst se nastavlja ispod oglasa

Napomenuo je i da je sama zgrada izgledala primjetno drugačije od Pentagona, a takav detalj lako je provjeriti pomoću alata kao što je Google Street View. Ostali detalji, uključujući lampu koja 'neobično pluta' te crni stup koji 'strši' iz pločnika, bili su dodatni znak da slika nije stvarna. Naime, umjetnoj inteligenciji još je uvijek teško rekreirati lokacije bez uvođenja nasumičnih objekata.

Tekst se nastavlja ispod oglasa
Image
POSTAJE LI OVO JEZIVO? /

Naučila govoriti kao pravi ljudi: Umjetna inteligencija sada može oponašati bilo čiji glas, a to može biti vrlo opasno

Image
POSTAJE LI OVO JEZIVO? /

Naučila govoriti kao pravi ljudi: Umjetna inteligencija sada može oponašati bilo čiji glas, a to može biti vrlo opasno

Kako uočiti lažne slike generirane umjetnom inteligencijom

Brojni generativni AI alati uz malo truda mogu stvoriti realistične slike. Ti alati obučavaju se, naime, gledanjem velikih količina stvarnih slika, a eventualni nedostatak određenih podataka popunjavaju vlastitim tumačenjem. To može dovesti do toga da, primjerice, ljudi na slikama mogu imati dodatne udove ili se objekti neobično stope s okolinom.

Tekst se nastavlja ispod oglasa

Evo što možete učiniti kako biste se zaštitili od lažnih vijesti i na što je sve dobro obratiti pažnju kada naiđete na sliku koja navodno prikazuje izvanrednu vijest:

Važna vijest ne događa se u vakuumu

Tekst se nastavlja ispod oglasa

U slučaju velike eksplozije ili važnog događaja realno je očekivati priljev izvješća s mjesta događaja od raznih ljudi te iz različitih kutova.

Tko je objavio sadržaj?

Tekst se nastavlja ispod oglasa

Provjerite povijest objava korisničkog računa na kojem ste pronašli objavu. Podudaraju li se lokacija profila i mjesto na kojem se događaj navodno zbio? Pogledajte i koga sve taj profil prati, kao i tko su pratitelji profila. Jesu li u pitanju stvarne osobe s kojima je moguće stupiti u kontakt?

Koristite obavještajne alate otvorenog koda

Tekst se nastavlja ispod oglasa

Alati za obrnuto pretraživanje slika kao što su Google Images i TinEye mogu vam omogućiti da učitate sliku te odredite gdje i kada je prvi put korištena. Postoje i drugi alati koje možete koristiti, poput snimki s javnih prometnih kamera uživo, kako biste potvrdili da se događaj zbilja odvija.

Analizirajte sliku i detalje onoga što prikazuje

Tekst se nastavlja ispod oglasa

Potražite na slici tragove poput obližnjih znamenitosti, detalje kao što su prometni znakovi, pa čak i vremenski uvjeti - sve to pomoći će vam da odredite gdje ili kada se navodni događaj mogao dogoditi.

Ljudi na slikama

Tekst se nastavlja ispod oglasa

Obratite pažnju na oči, ruke i općenito držanje ljudi na slikama. Videozapisi koje AI generira, a koji oponašaju ljude, pokazuju manjkavosti u prikazivanju treptanja jer većina podataka za obuku AI ne sadrži lica sa zatvorenim očima. Ruke koje ne hvataju pravilno predmete ili udovi koji izgledaju neprirodno iskrivljeni također mogu pomoći u prepoznavanju lažnjaka.

Fnc 16
Gledaj odmah bez reklama
VOYO logo