Noticias De Apple

Craig Federighi reconoce la confusión en torno a las características de seguridad infantil de Apple y explica nuevos detalles sobre las salvaguardias

Viernes 13 de agosto de 2021 7:33 am PDT por Hartley Charlton

El vicepresidente senior de ingeniería de software de Apple, Craig Federighi, ha defendido hoy el controvertido plan de la compañía características de seguridad para niños en una entrevista significativa con El periodico de Wall Street , revelando una serie de nuevos detalles sobre las salvaguardias integradas en el sistema de Apple para escanear las bibliotecas de fotos de los usuarios en busca de material de abuso sexual infantil (CSAM).





craig wwdc 2021 privacidad
Federighi admitió que Apple había manejado la semana pasada anuncio de las dos nuevas funciones de forma deficiente, relacionada con la detección de contenido explícito en Mensajes para niños y contenido CSAM almacenado en Fotos de iCloud bibliotecas, y reconoció la confusión generalizada en torno a las herramientas:

Está realmente claro que muchos mensajes se mezclaron bastante mal en términos de cómo se entendieron las cosas. Deseamos que esto hubiera salido un poco más claro para todos porque nos sentimos muy positivos y con fuerza sobre lo que estamos haciendo.



¿El Apple Watch se tiene monitor de frecuencia cardíaca?

[...]

En retrospectiva, la introducción de estas dos características al mismo tiempo fue una receta para este tipo de confusión. Al publicarlos al mismo tiempo, la gente los conectó técnicamente y se asustó mucho: ¿qué está pasando con mis mensajes? La respuesta es ... no pasa nada con sus mensajes.

La función Seguridad en las comunicaciones significa que si los niños envían o reciben imágenes explícitas a través de iMessage, se les advertirá antes de verlas, la imagen se verá borrosa y habrá una opción para que sus padres sean alertados. El escaneo CSAM, por otro lado, intenta hacer coincidir las fotos de los usuarios con imágenes hash de CSAM conocido antes de que se carguen en iCloud. Las cuentas que hayan detectado CSAM estarán sujetas a una revisión manual por parte de Apple y pueden ser informadas al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

cómo descargar ios 14 beta

Las nuevas funciones han sido objeto de una gran cantidad de críticas por parte de los usuarios, investigadores de seguridad , los Fundación Frontera Electrónica (EFF) y Edward Snowden , Exjefe de seguridad de Facebook , e incluso Empleados de Apple .

En medio de estas críticas, Federighi abordó una de las principales áreas de preocupación, enfatizando que el sistema de Apple estará protegido contra ser aprovechado por gobiernos u otros terceros con 'múltiples niveles de auditabilidad'.


Federighi también reveló una serie de nuevos detalles sobre las salvaguardas del sistema, como el hecho de que un usuario deberá cumplir con alrededor de 30 coincidencias para el contenido CSAM en su Fotos biblioteca antes de que Apple sea alertado, después de lo cual confirmará si esas imágenes parecen ser instancias genuinas de CSAM.

Si y solo si alcanza un umbral de algo del orden de las 30 imágenes de pornografía infantil conocidas que coinciden, solo entonces Apple sabe algo sobre su cuenta y sabe algo sobre esas imágenes, y en ese momento, solo sabe sobre esas imágenes, no sobre cualquiera de tus otras imágenes. Esto no está haciendo un análisis porque ¿tenía una foto de su hijo en la bañera? O, para el caso, ¿tenías una imagen de alguna pornografía de cualquier otro tipo? Esto, literalmente, solo coincide con las huellas dactilares exactas de imágenes específicas de pornografía infantil conocidas.

También señaló la ventaja de seguridad de colocar el proceso de emparejamiento en el iPhone directamente, en lugar de que ocurra en los servidores de & zwnj; iCloud & zwnj ;.

Debido a que está en el [teléfono], los investigadores de seguridad pueden introspectar constantemente lo que está sucediendo en el software del [teléfono] de Apple. Entonces, si se hicieron cambios para expandir el alcance de esto de alguna manera, de una manera que nos habíamos comprometido a no hacer, hay verificabilidad, pueden detectar que eso está sucediendo.

Cuando se le preguntó si la base de datos de imágenes utilizada para hacer coincidir el contenido CSAM en los dispositivos de los usuarios podría verse comprometida al insertar otros materiales, como contenido político en ciertas regiones, Federighi explicó que la base de datos se construye a partir de imágenes CSAM conocidas de múltiples organizaciones de seguridad infantil. con al menos dos en 'jurisdicciones distintas', para proteger contra el abuso del sistema.

¿Habrá un nuevo ipod touch en 2020?

Estas organizaciones de protección infantil, así como un auditor independiente, podrán verificar que la base de datos de imágenes solo consta de contenido de esas entidades, según Federighi.

La entrevista de Federighi se encuentra entre los mayores rechazos de relaciones públicas de Apple hasta ahora tras la respuesta mixta del público al anuncio de las características de seguridad infantil, pero la compañía también ha intentado repetidamente abordar las preocupaciones de los usuarios , publicar una FAQ y abordar directamente las preocupaciones en entrevistas con los medios .

Etiquetas: The Wall Street Journal, Craig Federighi, Funciones de seguridad para niños de Apple