Apple es demandada por no contar con herramientas para detectar CSAM en iCloud.

Un grupo de víctimas de abuso sexual infantil ha presentado una demanda contra Apple por no implementar herramientas que detecten material de abuso sexual infantil (CSAM) en su servicio de almacenamiento iCloud. La demanda, presentada en un tribunal del norte de California, busca una compensación de más de 1.200 millones de dólares para un grupo potencial de 2.680 afectados.

En 2021, Apple anunció planes para desarrollar una herramienta que identificara imágenes de CSAM y notificara al Centro Nacional para Niños Desaparecidos y Explotados. Sin embargo, la compañía abandonó el proyecto debido a preocupaciones sobre la privacidad de los usuarios. La demanda argumenta que Apple no tomó medidas para detectar o limitar la circulación de CSAM, lo que habría causado más daño a las víctimas.

El portavoz de Apple, Fred Sainz, respondió a las acusaciones reafirmando el compromiso de la empresa en la lucha contra el CSAM. Apple ha sido criticada previamente por su enfoque hacia la protección infantil en línea.

El caso plantea el debate sobre el equilibrio entre la privacidad de los usuarios y las herramientas de protección infantil en el ámbito tecnológico y legal. ¿Crees que las empresas tecnológicas deberían priorizar la privacidad de los usuarios sobre herramientas de protección infantil, o es posible encontrar un equilibrio adecuado?

Fuente: Enlace a la fuente

síguenos en Google News

Con Información de pisapapeles.net

Publicidad

Comparte:

Popular

Relacionado
Relacionado