Noticias De Apple

Empleados de Apple plantean inquietudes internamente sobre los planes de detección de CSAM

Viernes 13 de agosto de 2021 12:43 am PDT por Sami Fathi

Los empleados de Apple ahora se están uniendo al coro de personas que expresan su preocupación por los planes de Apple para escanear iPhone bibliotecas de fotos de los usuarios para CSAM o material de abuso sexual infantil, según los informes, hablando internamente sobre cómo se podría usar la tecnología para escanear las fotos de los usuarios en busca de otros tipos de contenido, según un informe de Reuters .





Apple park drone junio de 2018 2
De acuerdo a Reuters , un número no especificado de empleados de Apple ha recurrido a los canales internos de Slack para plantear preocupaciones sobre la detección de CSAM. Específicamente, a los empleados les preocupa que los gobiernos puedan obligar a Apple a usar la tecnología para censurar al encontrar contenido que no sea CSAM. A algunos empleados les preocupa que Apple esté dañando su reputación de privacidad líder en la industria.

Los empleados de Apple inundaron un canal interno de Slack de Apple con más de 800 mensajes sobre el plan anunciado hace una semana, dijeron a Reuters trabajadores que pidieron no ser identificados. Muchos expresaron su preocupación de que la función pueda ser explotada por gobiernos represivos que buscan encontrar otro material para censura o arrestos, según trabajadores que vieron el hilo de un día.



Los cambios de seguridad pasados ​​en Apple también han generado preocupación entre los empleados, pero el volumen y la duración del nuevo debate es sorprendente, dijeron los trabajadores. A algunos carteles les preocupaba que Apple esté dañando su reputación líder en la protección de la privacidad.

No se cree que los empleados de Apple en roles relacionados con la seguridad del usuario hayan sido parte de la protesta interna, según el informe.

Desde que es anuncio la semana pasada , Apple ha sido bombardeada con críticas por sus planes de detección de CSAM, que aún se espera que se implementen con iOS 15 y iPadOS 15 este otoño. Las preocupaciones giran principalmente en torno a cómo la tecnología podría presentar una pendiente resbaladiza para futuras implementaciones por parte de gobiernos y regímenes opresivos.

cómo encontrar mi iphone en mac

Apple ha rechazado firmemente la idea de que la tecnología en el dispositivo utilizada para detectar material CSAM podría usarse para cualquier otro propósito. en un documento de preguntas frecuentes publicado , la compañía dice que rechazará con vehemencia cualquier demanda de este tipo por parte de los gobiernos.

¿Podrían los gobiernos obligar a Apple a agregar imágenes que no sean CSAM a la lista hash?
Apple rechazará tales demandas. La capacidad de detección de CSAM de Apple está diseñada únicamente para detectar imágenes de CSAM conocidas almacenadas en iCloud Photos que han sido identificadas por expertos del NCMEC y otros grupos de seguridad infantil. En el pasado, nos hemos enfrentado a demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla. Además, Apple realiza una revisión humana antes de presentar un informe al NCMEC. En el caso de que el sistema marque fotos que no coincidan con imágenes CSAM conocidas, la cuenta no se deshabilitará y no se presentará ningún informe al NCMEC.

Un carta abierta criticar a Apple y pedir a la compañía que detenga de inmediato su plan de implementar la detección de CSAM ha obtenido más de 7.000 firmas en el momento de redactar este artículo. El responsable de WhatsApp también ha pesado en el debate .

Etiquetas: Privacidad de Apple, Funciones de seguridad para niños de Apple