APPLE RAZVIO SUSTAV PROTIV DJEČJE PORNOGRAFIJE /

Pronalazi sporne slike na iCloudu i alarmira policiju

Image
Foto: afp

Sistem funkcionira tako što uspoređuje fotografije s bazom poznatih slika seksualnog zlostavljanja djece koju su sastavili američki Nacionalni centar za nestalu i eksploatiranu djecu i slične organizacije

6.8.2021.
13:27
afp
VOYO logo

Informatička tvrtka Apple predstavila je u četvrtak novi sustav u borbi protiv dječje pornografije kako na svojim 'serverima' tako i na uređajima korisnika. Radi se o sustavu za pronalaženje slikovnog materijala seksualnog zlostavljanja djece (CSAM) pohranjenog na iCloud servisu u SAD-u obavijestiti policiju.

Novi sustav će detektirati CSAM na uređajima korisnika u SAD-u koristeći tzv. 'kriptografski hashing' - pretvaranje slika u jedinstvene brojeve koji korespondiraju s određenom slikom. To je tehnologija koja traži podudaranja sa već poznatim materijalom seksualnog iskorištavanja djece.

Tekst se nastavlja ispod oglasa

Odobravanje, ali i zabrinutost

Sistem funkcionira tako što uspoređuje fotografije s bazom poznatih slika seksualnog zlostavljanja djece koju su sastavili američki Nacionalni centar za nestalu i eksploatiranu decu (NCMEC) i druge organizacije za zaštitu djece.

Apple tvrdi da je taj sustav privatniji za korisnike od ostalih načina eliminacije ilegalnog sadržaja dječje pornografije jer koristi sofisticiraniju kriptografiju i na Appleovim serverima i uređajima korisnika.

Tekst se nastavlja ispod oglasa

Najava Applea da će skenirati američke iPhone telefone zbog fotografija seksualnog zlostavljanja djece naišla je na odobravanje organizacija za zaštitu djece, ali i zabrinutost da bi vlade mogle zloupotebljavati tu tehnologiju za nadzor svojih građana.

Tekst se nastavlja ispod oglasa
Tekst se nastavlja ispod oglasa
Tekst se nastavlja ispod oglasa
pikado
Gledaj odmah bez reklama
VOYO logo