XBOX Ally BannerMas Alla Banner
Virginia Occidental demanda a Apple por permitir la distribución de material de abuso infantil en iCloud

Virginia Occidental demanda a Apple por permitir la distribución de material de abuso infantil en iCloud

por Edgar Otero

El estado de Virginia Occidental ha presentado una demanda contra Apple acusando a la compañía de facilitar el almacenamiento y distribución de material de abuso sexual infantil (CSAM, por sus siglas en inglés) en iCloud. Según el fiscal general JB McCuskey, al abandonar un sistema de detección de CSAM en favor del cifrado de extremo a extremo, Apple ha convertido iCloud en "una vía segura y sin fricciones" para la posesión, protección y distribución de este tipo de contenido, violando las leyes de protección al consumidor del estado.

El dilema técnico detrás de esta demanda no es nuevo. Apple anunció en 2021 un sistema que comparaba fotos de iCloud contra una base de datos conocida de imágenes CSAM. Sin embargo, la propuesta generó una reacción masiva de defensores de la privacidad, quienes argumentaron que Apple estaba construyendo un sistema de vigilancia. La preocupación era que cualquier puerta trasera, incluso con las mejores intenciones, podría ser explotada por gobiernos autoritarios o actores maliciosos. Casi un año después, Apple canceló el desarrollo de esta función.

Craig Federighi, jefe de software de Apple, declaró entonces al Wall Street Journal que "el abuso sexual infantil puede evitarse antes de que ocurra... Ahí es donde pondremos nuestra energía en adelante". Pero Virginia Occidental ahora alega que Apple "diseñó sus productos con indiferencia deliberada hacia daños altamente prevenibles".

Lo más revelador de la demanda es una cita de un mensaje interno entre ejecutivos de Apple. Según el documento legal, Eric Friedman, jefe de fraude de Apple, habría afirmado que iCloud es "la mejor plataforma para distribuir pornografía infantil". Si esta comunicación interna es auténtica, sugiere que incluso dentro de la compañía existía conciencia del problema, lo que hace más difícil justificar por qué no se implementó ninguna solución intermedia.

El problema de Google: cuando proteger demasiado destruye vidas

Antes de aplaudir sistemas de detección automatizados, conviene recordar el caso de Google. Reddit y foros técnicos están repletos de testimonios de usuarios que aseguran haber perdido su cuenta por culpa del sistema de detección de material sensible. Sin entrar a valorar cada caso, es evidente que los falsos positivos son reales y tienen consecuencias graves: la pérdida de acceso permanente a toda su cuenta de Google.

Sin revisión humana real. Solo un mensaje genérico de violación de políticas. Estos casos revelan la importancia crítica de no centralizar toda tu vida digital en una sola empresa y, como mínimo, mantener copias de seguridad locales regulares de datos importantes. El cloud es conveniente, pero no es infalible ni está libre de consecuencias catastróficas por falsos positivos.

Las cifras y el precedente legal que puede cambiarlo todo

La demanda señala que Apple realizó 267 reportes de CSAM al Centro Nacional para Niños Desaparecidos y Explotados, una cifra insignificante comparada con los más de 1,47 millones de reportes de Google o los más de 30,6 millones de Meta. Muchas plataformas, incluyendo Google, Reddit, Snap y Meta, utilizan herramientas como PhotoDNA de Microsoft o la Content Safety API de Google para detectar, eliminar y reportar CSAM.

Pero estas cifras plantean una pregunta incómoda: ¿significan realmente que iCloud alberga más material ilegal, o simplemente que los sistemas automatizados de otras plataformas generan montañas de reportes incluyendo innumerables falsos positivos? La diferencia entre 267 y 30 millones es tan abismal que sugiere que estamos comparando metodologías completamente distintas, no necesariamente realidades diferentes.

El precedente legal que podría establecer esta demanda es potencialmente explosivo. Si Virginia Occidental gana, ¿se verá obligada Apple a eliminar el cifrado end-to-end de iCloud? ¿Afectará esto también a iMessage? ¿Sentará precedente para que otros estados demanden a empresas que priorizan la privacidad? McCuskey ha dejado claro que espera que otros estados se sumen a la demanda.

Apple, por su parte, defiende su postura. "En Apple, proteger la seguridad y privacidad de nuestros usuarios, especialmente los niños, es central en lo que hacemos", declaró el portavoz Peter Ajemian. La compañía ha implementado controles parentales y herramientas que difuminan automáticamente imágenes de desnudos para menores en iMessage. Pero para el estado de Virginia Occidental, estas salvaguardas son insuficientes frente a lo que consideran un diseño deliberadamente negligente.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!

Temas Relacionados: Internet Apple iCloud
Redactor del Artículo: Edgar Otero

Edgar Otero

Soy técnico en sistemas informáticos, empecé a experimentar un Pentium II, aunque lo mío siempre ha sido el software. Desde que actualicé de Windows 95 a Windows 98 no he dejado de instalar sistemas. Tuve mi época Linuxera y fui de los que pidió el CD gratuito de Canonical. Actualmente uso macOS para trabajar y tengo un portátil con Windows 11 en el que también he instalado Chrome OS Flex. En definitiva, experimentar, probar y presionar botones.

Comentarios y opiniones sobre: Virginia Occidental demanda a Apple por permitir la distribución de material de abuso infantil en iCloud ¿Qué opinas? ¿Alguna pregunta?
IEM Banner