La compañía de la manzana se ha caracterizado por procurar la privacidad de sus usuarios, pero en esta ocasión se suma a los esfuerzos realizados por Google, Facebook y otros para combatir la trata de personas.
En el comunicado, Apple señala que ha implementado nueva tecnología que le permitirá detectar imágenes cuyo contenido incluya actividades sexualmente explícitas que involucren a un niño, a lo que llaman CSAM. Y agregó que reportará los casos detectados al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC por sus siglas en inglés).
Esta estrategia consiste en realizar un escaneo de las imágenes en el dispositivo Apple para después hacer una comparativa con bases de datos de instituciones de seguridad infantil como el NCMEC.
“Este proceso de coincidencia está impulsado por una tecnología criptográfica llamada intersección de conjuntos privados, que determina si hay una coincidencia sin revelar el resultado”.
El sistema hará este escaneo antes de que las imágenes se almacenen en iCloud para evitar la propagación de contenido CSAM conocido. De igual manera se informó que Apple no podrá conocer el contenido de las fotos a menos de que haya una coincidencia con las bases de datos.
En caso de que el contenido CSAM sea detectado, se desactivará la cuenta de ese usuario y se enviará un informe al NCMEC. El usuario podrá presentar una apelación si considera que su cuenta ha sido desactivada por error.
Esta medida se ha implementado solamente en Estados Unidos, pero no se descarta que pudiera generalizarse. En tanto, esta medida ha desatado gran polémica ¿Tú qué opinas?
I”ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea. Matthew Green (@matthew_d_green) August 4, 2021