APPLE RAZVIO SUSTAV PROTIV DJEČJE PORNOGRAFIJE / Pronalazi sporne slike na iCloudu i alarmira policiju

Image
Foto: afp

Sistem funkcionira tako što uspoređuje fotografije s bazom poznatih slika seksualnog zlostavljanja djece koju su sastavili američki Nacionalni centar za nestalu i eksploatiranu djecu i slične organizacije

6.8.2021.
13:27
afp
VOYO logo

Informatička tvrtka Apple predstavila je u četvrtak novi sustav u borbi protiv dječje pornografije kako na svojim 'serverima' tako i na uređajima korisnika. Radi se o sustavu za pronalaženje slikovnog materijala seksualnog zlostavljanja djece (CSAM) pohranjenog na iCloud servisu u SAD-u obavijestiti policiju.

Novi sustav će detektirati CSAM na uređajima korisnika u SAD-u koristeći tzv. 'kriptografski hashing' - pretvaranje slika u jedinstvene brojeve koji korespondiraju s određenom slikom. To je tehnologija koja traži podudaranja sa već poznatim materijalom seksualnog iskorištavanja djece.

Tekst se nastavlja ispod oglasa

Odobravanje, ali i zabrinutost

Sistem funkcionira tako što uspoređuje fotografije s bazom poznatih slika seksualnog zlostavljanja djece koju su sastavili američki Nacionalni centar za nestalu i eksploatiranu decu (NCMEC) i druge organizacije za zaštitu djece.

Apple tvrdi da je taj sustav privatniji za korisnike od ostalih načina eliminacije ilegalnog sadržaja dječje pornografije jer koristi sofisticiraniju kriptografiju i na Appleovim serverima i uređajima korisnika.

Tekst se nastavlja ispod oglasa

Najava Applea da će skenirati američke iPhone telefone zbog fotografija seksualnog zlostavljanja djece naišla je na odobravanje organizacija za zaštitu djece, ali i zabrinutost da bi vlade mogle zloupotebljavati tu tehnologiju za nadzor svojih građana.

Tekst se nastavlja ispod oglasa
Tekst se nastavlja ispod oglasa
Toma
Gledaj od 29.travnja
VOYO logo