Noticias De Apple

Investigadores de seguridad expresan alarma por los planes de Apple para escanear imágenes de iCloud, pero la práctica ya está muy extendida

Jueves 5 de agosto de 2021 2:04 pm PDT por Juli Clover

manzana hoy anunciado que con el lanzamiento de iOS 15 y iPad 15 , comenzará a escanear Fotos de iCloud en los EE. UU. para buscar material conocido sobre abuso sexual infantil (CSAM), con planes de informar los hallazgos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).





Característica de seguridad infantil
Antes de que Apple detallara sus planes, se filtraron noticias de la iniciativa CSAM, y los investigadores de seguridad ya comenzaron a expresar preocupaciones sobre cómo el nuevo protocolo de escaneo de imágenes de Apple podría usarse en el futuro, como señaló Tiempos financieros .

Apple está utilizando un sistema 'NeuralHash' para comparar imágenes CSAM conocidas con fotos de un usuario iPhone antes de que se carguen en iCloud. Si hay una coincidencia, esa fotografía se carga con un comprobante de seguridad criptográfico y, en un cierto umbral, se activa una revisión para verificar si la persona tiene CSAM en sus dispositivos.



¿Qué tan bien funcionan los airpods con Android?

En este momento, Apple está utilizando su tecnología de escaneo y comparación de imágenes para buscar abuso infantil, pero a los investigadores les preocupa que en el futuro, pueda adaptarse para escanear en busca de otros tipos de imágenes que son más preocupantes, como carteles antigubernamentales en protestas.

En una serie de tweets, el investigador de criptografía de Johns Hopkins Matthew Green dijo que el escaneo CSAM es una 'muy mala idea' porque en el futuro, podría expandirse para escanear fotos cifradas de un extremo a otro en lugar de solo el contenido que se carga en & zwnj; iCloud & zwnj ;. Para los niños, Apple es implementar una función de escaneo separada que busca contenido sexualmente explícito directamente en iMessages, que están encriptados de un extremo a otro.

Green también expresó su preocupación por los hash que Apple planea usar porque podría haber 'colisiones', donde alguien envía un archivo inofensivo que comparte un hash con CSAM y podría resultar en una bandera falsa.

Apple, por su parte, dice que su tecnología de escaneo tiene un 'nivel extremadamente alto de precisión' para asegurarse de que las cuentas no se marquen incorrectamente, y los informes se revisan manualmente antes de que & zwnj; iCloud & zwnj; la cuenta está deshabilitada y se envía un informe al NCMEC.

Green cree que la implementación de Apple empujará a otras empresas tecnológicas a adoptar técnicas similares. 'Esto romperá la presa', escribió. 'Los gobiernos se lo exigirán a todo el mundo'. Comparó la tecnología con 'herramientas que han desplegado los regímenes represivos'.


El investigador de seguridad Alec Muffett, que anteriormente trabajó en Facebook, dijo que la decisión de Apple de implementar este tipo de escaneo de imágenes fue un 'paso enorme y regresivo para la privacidad individual'. 'Apple está retrocediendo la privacidad para habilitar 1984', dijo.

Ross Anderson, profesor de ingeniería de seguridad en la Universidad de Cambridge, dijo que la calificó como una 'idea absolutamente espantosa' que podría conducir a una 'vigilancia masiva distribuida' de los dispositivos.

Como muchos han señalado en Twitter, varias empresas de tecnología ya realizan escaneos de imágenes para CSAM. Google, Twitter, Microsoft, Facebook y otros utilizan métodos de hash de imágenes para buscar e informar imágenes conocidas de abuso infantil.


También vale la pena señalar que Apple fue ya escaneando algún contenido para imágenes de abuso infantil antes del lanzamiento de la nueva iniciativa CSAM. En 2020, la directora de privacidad de Apple, Jane Horvath, dijo que Apple usó tecnología de detección para buscar imágenes ilegales y luego deshabilita las cuentas si se detecta evidencia de CSAM.

cómo combinar contactos en mac

Apple en 2019 actualizó sus políticas de privacidad tener en cuenta que analizaría el contenido subido en busca de 'contenido potencialmente ilegal, incluido material de explotación sexual infantil', por lo que los anuncios de hoy no son del todo nuevos.

Nota: Debido a la naturaleza política o social de la discusión sobre este tema, el hilo de discusión se encuentra en nuestro Noticias políticas foro. Todos los miembros del foro y los visitantes del sitio pueden leer y seguir el hilo, pero la publicación está limitada a los miembros del foro con al menos 100 publicaciones.

Etiquetas: Privacidad de Apple, Funciones de seguridad para niños de Apple