Noticias De Apple

Apple presenta nuevas funciones de seguridad infantil, incluida la exploración de las bibliotecas de fotos de los usuarios en busca de material conocido sobre abusos sexuales

Jueves 5 de agosto de 2021 1:00 pm PDT por Joe Rossignol

Apple hoy vista previa de nuevas características de seguridad para niños que llegará a sus plataformas con actualizaciones de software a finales de este año. La compañía dijo que las funciones estarán disponibles en los EE. UU. Solo en el lanzamiento y se expandirán a otras regiones con el tiempo.





característica de seguridad de comunicación del iphone

Seguridad de la comunicación

Primero, la aplicación Mensajes en el iPhone, iPad y Mac recibirá una nueva función de Seguridad de la comunicación para advertir a los niños y sus padres cuando reciban o envíen fotos sexualmente explícitas. Apple dijo que la aplicación Messages utilizará el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de imágenes, y si se determina que una foto es sexualmente explícita, la foto se borrará automáticamente y se advertirá al niño.



Apple tiene una tarjeta de débito

Cuando un niño intenta ver una foto marcada como sensible en la aplicación Mensajes, se le avisará que la foto puede contener partes privadas del cuerpo y que la foto puede ser hiriente. Dependiendo de la edad del niño, también habrá una opción para que los padres reciban una notificación si su hijo procede a ver la foto sensible o si eligen enviar una foto sexualmente explícita a otro contacto después de recibir una advertencia.

Apple dijo que la nueva función de seguridad en las comunicaciones vendrá en actualizaciones para iOS 15, iPadOS 15 y macOS Monterey a finales de este año para las cuentas configuradas como familias en iCloud. Apple se aseguró de que las conversaciones de iMessage permanezcan protegidas con cifrado de extremo a extremo, lo que hace que las comunicaciones privadas sean ilegibles para Apple.

Escaneo de fotos para material de abuso sexual infantil (CSAM)

En segundo lugar, a partir de este año con iOS 15 y iPadOS 15, Apple podrá detectar imágenes conocidas de Material de abuso sexual infantil (CSAM) almacenadas en iCloud Photos, lo que permitirá a Apple informar estas instancias al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). , una organización sin fines de lucro que trabaja en colaboración con las agencias de aplicación de la ley de EE. UU.

Apple dijo que su método para detectar CSAM conocido está diseñado teniendo en cuenta la privacidad del usuario. En lugar de escanear imágenes en la nube, Apple dijo que el sistema realizará una comparación en el dispositivo con una base de datos de hashes de imágenes CSAM conocidas proporcionadas por el NCMEC y otras organizaciones de seguridad infantil. Apple dijo que transformará aún más esta base de datos en un conjunto ilegible de hash que se almacena de forma segura en los dispositivos de los usuarios.

La tecnología hash, llamada NeuralHash, analiza una imagen y la convierte en un número único específico para esa imagen, según Apple.

'El objetivo principal del hash es garantizar que las imágenes idénticas y visualmente similares den como resultado el mismo hash, mientras que las imágenes que son diferentes entre sí dan como resultado diferentes hashes', dijo Apple en un nuevo documento técnico de 'Protecciones ampliadas para niños'. 'Por ejemplo, una imagen que ha sido ligeramente recortada, redimensionada o convertida de color a blanco y negro se trata de forma idéntica a su original y tiene el mismo hash'.

diagrama de flujo de apple csam
Antes de que una imagen se almacene en iCloud Photos, Apple dijo que se realiza un proceso de comparación en el dispositivo para esa imagen con el conjunto ilegible de hashes CSAM conocidos. Si hay una coincidencia, el dispositivo crea un vale de seguridad criptográfico. Este cupón se carga en Fotos de iCloud junto con la imagen, y una vez que se excede un umbral no revelado de coincidencias, Apple puede interpretar el contenido de los cupones para coincidencias de CSAM. Luego, Apple revisa manualmente cada informe para confirmar que hay una coincidencia, deshabilita la cuenta de iCloud del usuario y envía un informe al NCMEC. Apple no comparte cuál es su umbral exacto, pero garantiza un 'nivel extremadamente alto de precisión' para que las cuentas no se marquen incorrectamente.

Apple dijo que su método para detectar CSAM conocido proporciona 'beneficios de privacidad significativos' sobre las técnicas existentes:

• Este sistema es una forma eficaz de identificar CSAM conocido almacenado en las cuentas de Fotos de iCloud mientras protege la privacidad del usuario.
• Como parte del proceso, los usuarios tampoco pueden aprender nada sobre el conjunto de imágenes CSAM conocidas que se utilizan para la comparación. Esto protege el contenido de la base de datos del uso malintencionado.
• El sistema es muy preciso, con una tasa de error extremadamente baja de menos de uno en un billón de cuentas por año.
• El sistema preserva significativamente más la privacidad que el escaneo basado en la nube, ya que solo informa a los usuarios que tienen una colección de CSAM conocida almacenada en Fotos de iCloud.

La tecnología subyacente detrás del sistema de Apple es bastante compleja y ha publicado un resumen técnico con más detalles.

'La protección ampliada de Apple para los niños cambia las reglas del juego. Con tanta gente que usa los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños que están siendo atraídos en línea y cuyas horribles imágenes están circulando en material de abuso sexual infantil '', dijo John Clark, presidente y director ejecutivo del National Center for Missing. Y niños explotados. 'En el Centro Nacional para Niños Desaparecidos y Explotados sabemos que este crimen solo puede combatirse si somos firmes en nuestra dedicación a la protección de los niños. Solo podemos hacer esto porque los socios tecnológicos, como Apple, dan un paso al frente y dan a conocer su dedicación. La realidad es que la privacidad y la protección infantil pueden coexistir. Aplaudimos a Apple y esperamos trabajar juntos para hacer de este mundo un lugar más seguro para los niños ”.

Orientación ampliada de CSAM en Siri y búsqueda

iphone csam siri
En tercer lugar, Apple dijo que ampliará la orientación en Siri y Spotlight Search en todos los dispositivos al proporcionar recursos adicionales para ayudar a los niños y padres a mantenerse seguros en línea y obtener ayuda en situaciones inseguras. Por ejemplo, a los usuarios que le pregunten a Siri cómo pueden denunciar el abuso sexual infantil o infantil o la explotación infantil, se les indicará dónde y cómo presentar una denuncia.

Las actualizaciones de Siri y Search llegarán a finales de este año en una actualización de iOS 15, iPadOS 15, watchOS 8 y macOS Monterey, según Apple.

Nota: Debido a la naturaleza política o social de la discusión sobre este tema, el hilo de discusión se encuentra en nuestro Noticias políticas foro. Todos los miembros del foro y los visitantes del sitio pueden leer y seguir el hilo, pero la publicación está limitada a los miembros del foro con al menos 100 publicaciones.

Etiquetas: Privacidad de Apple, Funciones de seguridad para niños de Apple