Compensació Pel Signe Del Zodíac
Sonabilitat C Celebritats

Esbrineu La Compatibilitat Per Signe Del Zodíac

Explicació: com Apple buscarà imatges d'explotació infantil als dispositius i per què està aixecant les celles

Inicialment, s'esperava que es publiqui als Estats Units, les funcions inclouen l'ús de noves tecnologies per limitar la propagació de CSAM en línia, especialment a través de la plataforma Apple.

En una publicació al bloc, Apple va explicar que utilitzarà aplicacions de criptografia mitjançant iOS i iPadOS per fer coincidir les imatges CSAM conegudes emmagatzemades a iCloud Photo.

Apple ho ha anunciat Les actualitzacions de programari a finals d'aquest any aportaran noves funcions que ajudarà a protegir els nens dels depredadors que utilitzen eines de comunicació per reclutar-los i explotar-los, i limitar la propagació del material d'abús sexual infantil (CSAM).





Inicialment, s'esperava que es publiqui als Estats Units, les funcions inclouen l'ús de noves tecnologies per limitar la propagació de CSAM en línia, especialment a través de la plataforma Apple.

A continuació, hi haurà protecció al dispositiu perquè els nens no enviïn o rebin contingut sensible, amb mecanismes per avisar els pares en cas que l'usuari sigui menor de 13 anys. Apple també intervindrà quan s'utilitzi Siri o Search per cercar temes relacionats amb CSAM. .



Quina tecnologia està fent Apple per evitar la propagació de CSAM en línia?

En una publicació al bloc, Apple va explicar que utilitzarà aplicacions de criptografia mitjançant iOS i iPadOS per fer coincidir les imatges CSAM conegudes emmagatzemades a iCloud Photo. La tecnologia combinarà les imatges de l'iCloud d'un usuari amb imatges conegudes proporcionades per organitzacions de seguretat infantil. I això es fa sense veure realment la imatge i només buscant el que és com una coincidència d'empremtes digitals. En cas que hi hagi coincidències que superin un llindar, Apple informarà d'aquests casos al National Center for Missing and Exploited Children (NCMEC).

Apple va aclarir que la seva tecnologia té en compte la privadesa dels usuaris i, per tant, la base de dades es transforma en un conjunt il·legible de hashes que s'emmagatzema de manera segura als dispositius dels usuaris. Va afegir que abans de penjar qualsevol imatge a iCloud, el sistema operatiu la compararà amb els hash CSAM coneguts mitjançant una tecnologia criptogràfica anomenada intersecció de conjunts privats. Aquesta tecnologia també determinarà un partit sense revelar el resultat.



En aquest punt, el dispositiu crea un val de seguretat criptogràfic amb el resultat de la coincidència i dades xifrades addicionals i el desa a iClouds amb la imatge. La tecnologia de compartició secreta de llindar garanteix que Apple no pugui interpretar aquests vals tret que el compte d'iCloud Photos travessi un llindar de contingut CSAM conegut. Aquest llindar, segons afirma el bloc, s'ha establert per proporcionar un nivell de precisió extremadament alt i garanteix menys d'una possibilitat d'un bilió per any de marcar incorrectament un compte determinat. Per tant, és poc probable que una sola imatge activi una alerta.



Però si es supera el llindar, Apple pot interpretar el contingut dels vals de seguretat i revisar manualment cada informe per a una coincidència, desactivar el compte de l'usuari i enviar un informe a NCMEC. Apple va dir que els usuaris podran apel·lar si creuen que han estat marcats incorrectament.


quants anys té Jack Hanna

Com funcionen les altres funcions?

La nova seguretat de comunicació d'Apple per als missatges difuminarà una imatge sensible i advertirà un nen sobre la naturalesa del contingut. Si s'habilita des del backend, també es podria dir al nen que els seus pares han estat alertats sobre el missatge que han vist. El mateix s'aplicarà si el nen decideix enviar un missatge sensible. Apple va dir que Missatges utilitzarà l'aprenentatge automàtic al dispositiu per analitzar els fitxers adjunts d'imatges i determinar si una foto és sexualment explícita i que Apple no tindrà accés als missatges. La funció es presentarà com una actualització dels comptes configurats com a famílies a iCloud per a les últimes versions del sistema operatiu.
A més, amb l'actualització, quan un usuari intenta cercar temes potencials de CSAM, Siri i Search explicaran per què això podria ser perjudicial i problemàtic. Els usuaris també rebran orientació sobre com presentar un informe sobre explotació infantil si ho demanen.



També a Explicat| Explicació: com i per què Google oferirà més protecció als nens en línia

Per què Apple fa això i quines preocupacions es plantegen?

Les grans empreses tecnològiques han estat pressionades durant anys per reprimir l'ús de la seva plataforma per a l'explotació de nens. Al llarg dels anys, molts informes han subratllat com no s'estava fent prou per impedir que la tecnologia fes més disponible el contingut CSAM.

Tanmateix, l'anunci d'Apple ha estat rebut amb crítiques i molts han subratllat com aquest és exactament el tipus de tecnologia de vigilància que molts governs voldrien tenir i els agradaria fer un mal ús. El fet que això vingui d'Apple, que durant molt de temps ha estat el defensor de la privadesa, ha sorprès a molts.



A més, experts en criptografia com Matthew Green de la Universitat Johns Hopkins han expressat el temor que el sistema es pugui utilitzar per emmarcar persones innocents enviant-los imatges destinades a activar les coincidències per a CSAM. Els investigadors han estat capaços de fer-ho amb força facilitat, va dir a NPR, i va afegir que és possible enganyar aquests algorismes.

Però The New York Times va citar el cap de privadesa d'Apple, Erik Neuenschwander, dient que aquestes funcions no significaran res diferent per als usuaris habituals.



Si esteu emmagatzemant una col·lecció de material CSAM, sí, això és dolent per a vosaltres, va dir a la publicació.

Butlletí informatiu| Feu clic per rebre els millors explicadors del dia a la vostra safata d'entrada

Altres grans empreses tecnològiques tenen tecnologies similars?

Sí. De fet, Apple és un participant relativament tardà a l'escena, ja que Microsoft, Google i Facebook han estat alertant les agències d'aplicació de la llei sobre les imatges CSAM. Apple s'ha quedat enrere perquè qualsevol tecnologia d'aquest tipus hauria anat en contra del seu tan proclamat compromís amb la privadesa dels usuaris. Com a resultat, el 2020, quan Facebook va informar de 20,3 milions de violacions de CSAM a l'NCMEC, Apple va poder informar només 265 casos, va informar The New York Times.


venda d’àlbums de hopsin

Només ara ha pogut trobar el punt dolç tecnològic per fer-ho sense afectar els usuaris habituals, o almenys espantar-los. No obstant això, tal com ha demostrat la reacció inicial, no deixa de ser un equilibrista.

Comparteix Amb Els Teus Amics: