Noticias De Apple

Apple abre sus puertas a la expansión de nuevas funciones de seguridad infantil a aplicaciones de terceros

Lunes 9 de agosto de 2021 12:00 pm PDT por Joe Rossignol

Apple celebró hoy una sesión de preguntas y respuestas con los periodistas sobre su nuevas características de seguridad para niños , y durante la sesión informativa, Apple confirmó que estaría dispuesta a expandir las funciones a aplicaciones de terceros en el futuro.





característica de seguridad de comunicación del iphone
Como recordatorio, Apple presentó tres nuevas funciones de seguridad para niños que llegarán a las futuras versiones de iOS 15, iPadOS 15, macOS Monterey y / o watchOS 8.

Nuevas funciones de seguridad infantil de Apple

Primero, una función opcional de Seguridad de la comunicación en la aplicación Mensajes en iPhone, iPad y Mac puede advertir a los niños y a sus padres cuando reciben o envían fotos sexualmente explícitas. Cuando la función está habilitada, Apple dijo que la aplicación Mensajes usará el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de imágenes, y si se determina que una foto es sexualmente explícita, la foto se borrará automáticamente y se advertirá al niño.



En segundo lugar, Apple podrá detectar imágenes conocidas de Material de abuso sexual infantil (CSAM) almacenadas en iCloud Photos, lo que permitirá a Apple informar estas instancias al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), una organización sin fines de lucro que trabaja en colaboración. con las agencias de aplicación de la ley de EE. UU. Apple confirmó hoy que el proceso solo se aplicará a las fotos que se carguen en iCloud Photos y no a los videos.

En tercer lugar, Apple ampliará la orientación en Siri y Spotlight Search en todos los dispositivos al proporcionar recursos adicionales para ayudar a los niños y padres a mantenerse seguros en línea y obtener ayuda en situaciones inseguras. Por ejemplo, a los usuarios que le pregunten a Siri cómo pueden denunciar el abuso sexual infantil o infantil o la explotación infantil, se les indicará dónde y cómo presentar una denuncia.

Expansión a aplicaciones de terceros

Apple dijo que si bien no tiene nada que compartir hoy en términos de un anuncio, expandir las funciones de seguridad infantil a terceros para que los usuarios estén aún más protegidos sería un objetivo deseable. Apple no proporcionó ningún ejemplo específico, pero una posibilidad podría ser que la función Seguridad de la comunicación esté disponible para aplicaciones como Snapchat, Instagram o WhatsApp para que las fotos sexualmente explícitas recibidas por un niño se vean borrosas.

Otra posibilidad es que el conocido sistema de detección de CSAM de Apple pueda expandirse a aplicaciones de terceros que cargan fotos en otros lugares que no sean Fotos de iCloud.

Apple no proporcionó un marco de tiempo sobre cuándo las funciones de seguridad para niños podrían expandirse a terceros, y señaló que aún tiene que completar las pruebas y la implementación de las funciones, y la compañía también dijo que debería asegurarse de que cualquier expansión potencial no lo haga. socavar las propiedades de privacidad o la eficacia de las funciones.

En términos generales, Apple dijo que expandir las funciones a terceros es el enfoque general de la compañía y lo ha sido desde que introdujo el soporte para aplicaciones de terceros con la introducción de la App Store en iPhone OS 2 en 2008.