Pojasnjeno: kako bo Apple iskal slike izkoriščanja otrok na napravah in zakaj dviguje obrvi
Funkcije, ki naj bi bile sprva objavljene v Združenih državah Amerike, vključujejo uporabo nove tehnologije za omejitev širjenja CSAM na spletu, zlasti prek platforme Apple.

Apple je to napovedal posodobitve programske opreme pozneje v tem letu bodo prinesle nove funkcije To bo pomagalo zaščititi otroke pred plenilci, ki uporabljajo komunikacijska orodja, da jih novačijo in izkoriščajo, ter omejilo širjenje gradiva o spolni zlorabi otrok (CSAM).
Funkcije, ki naj bi bile sprva objavljene v Združenih državah Amerike, vključujejo uporabo nove tehnologije za omejitev širjenja CSAM na spletu, zlasti prek platforme Apple.
Nato bo na voljo zaščita v napravi za otroke pred pošiljanjem ali prejemanjem občutljive vsebine z mehanizmi za obveščanje staršev, če je uporabnik mlajši od 13 let. Apple bo posredoval tudi, ko se Siri ali Search uporabljata za iskanje tem, povezanih s CSAM. .
Kakšno tehnologijo Apple počne, da prepreči širjenje CSAM na spletu?
Apple je v objavi na spletnem dnevniku pojasnil, da bo uporabljal kriptografske aplikacije prek iOS in iPadOS za ujemanje znanih slik CSAM, shranjenih v iCloud Photo. Tehnologija bo uskladila slike na uporabnikovem iCloudu z znanimi slikami, ki jih zagotovijo organizacije za varnost otrok. In to se naredi, ne da bi dejansko videli sliko in le tako, da iščemo nekaj, kar je kot ujemanje prstnih odtisov. V primeru, da bodo ujemanja presegla prag, bo Apple te primere prijavil Nacionalnemu centru za pogrešane in izkoriščane otroke (NCMEC).
Apple je pojasnil, da njegova tehnologija upošteva zasebnost uporabnikov, zato se baza podatkov pretvori v neberljiv nabor hash, ki je varno shranjen na napravah uporabnikov. Dodalo je, da jo operacijski sistem pred nalaganjem katere koli slike v iCloud primerja z znanimi zgoščenci CSAM z uporabo kriptografske tehnologije, imenovane križišče zasebnih nizov. Ta tehnologija bo tudi določila tekmo, ne da bi razkrila rezultat.
Na tej točki naprava ustvari kriptografski varnostni bon z rezultatom tekme in dodatnimi šifriranimi podatki ter ga s sliko shrani v iCloud. Tehnologija Threshold Secret Sharing zagotavlja, da Apple teh kuponov ne more razlagati, razen če račun iCloud Photos preseže prag znane vsebine CSAM. Ta prag, je blog trdil, je bil vzpostavljen, da bi zagotovil izjemno visoko raven natančnosti in zagotavlja manj kot eno proti bilijonu možnosti na leto za napačno označevanje določenega računa. Zato je malo verjetno, da bo ena sama slika sprožila opozorilo.
Če pa je prag presežen, lahko Apple razlaga vsebino varnostnih kuponov in ročno pregleda vsako poročilo glede ujemanja, onemogoči uporabniški račun in pošlje poročilo NCMEC. Apple je dejal, da se bodo uporabniki lahko pritožili, če menijo, da so bili napačno označeni.
Kako delujejo druge funkcije?
Appleova nova komunikacijska varnost za Messages bo zameglila občutljivo sliko in otroka opozorila na naravo vsebine. Če je omogočeno v zaledju, bi lahko otroku povedali tudi, da so bili njegovi starši opozorjeni na sporočilo, ki so si ga ogledali. Enako velja, če se otrok odloči poslati občutljivo sporočilo. Apple je dejal, da bo Messages uporabil strojno učenje v napravi za analizo slikovnih prilog in ugotavljanje, ali je fotografija spolno eksplicitna in da Apple ne bo dobil dostopa do sporočil. Funkcija bo prišla kot posodobitev računov, nastavljenih kot družine v iCloud za najnovejše različice operacijskega sistema.
Tudi s posodobitvijo, ko uporabnik poskuša poiskati potencialne teme CSAM, Siri in Search razložita, zakaj bi to lahko bilo škodljivo in problematično. Uporabniki bodo prejeli tudi navodila, kako vložiti prijavo o izkoriščanju otrok, če bodo to zahtevali.
| Pojasnjeno: Kako in zakaj bo Google ponudil večjo zaščito otrokom na spletu
Zakaj Apple to počne in kakšni so pomisleki?
Velika tehnološka podjetja so že leta pod pritiskom, da se zajezijo z uporabo svoje platforme za izkoriščanje otrok. Številna poročila so v preteklih letih poudarila, kako ni bilo storjeno dovolj, da bi tehnologija preprečila, da bi vsebine CSAM omogočile širšemu dostopu.
Vendar pa je Appleova objava naletela na kritike, saj so mnogi poudarili, da je to točno vrsta nadzorne tehnologije, ki bi jo želele imeti številne vlade in jo rade zlorabljajo. Dejstvo, da je to prišlo od Appla, ki je že dolgo zagovornik zasebnosti, je marsikoga presenetilo.
Strokovnjaki za kriptografijo, kot je Matthew Green z univerze Johns Hopkins, so izrazili bojazen, da bi lahko sistem uporabili za uokvirjanje nedolžnih ljudi, ki jim pošiljajo slike, ki naj bi sprožile ujemanja za CSAM. Raziskovalcem je to uspelo precej enostavno, je povedal za NPR in dodal, da je takšne algoritme mogoče preslepiti.
Toda The New York Times je citiral Applovega glavnega pooblaščenca za zasebnost Erika Neuenschwanderja, ki pravi, da te funkcije za običajne uporabnike ne bodo pomenile nič drugače.
Če shranjujete zbirko gradiva CSAM, da, to je slabo za vas, je dejal za publikacijo.
glasilo| Kliknite, da dobite najboljše razlage dneva v mapi »Prejeto«.
Ali imajo druga velika tehnološka podjetja podobne tehnologije?
da. Pravzaprav je Apple sorazmerno pozen udeleženec na sceni, saj so Microsoft, Google in Facebook organe pregona opozarjali na slike CSAM. Apple zaostaja, ker bi bila vsaka taka tehnologija v nasprotju z njegovo zelo cenjeno zavezanostjo zasebnosti uporabnikov. Kot rezultat, je Apple leta 2020, ko je Facebook poročal o 20,3 milijona kršitev CSAM NCMEC, lahko Apple prijavil le 265 primerov, poroča The New York Times.
Šele zdaj je uspelo najti tehnološko točko za to, ne da bi vplivalo na običajne uporabnike ali jih vsaj prestrašilo. Vendar, kot je pokazal začetni odziv, je še vedno hoja po napeti vrvi.
Delite S Prijatelji: