Apple está escaneando imágenes para prevenir el abuso sexual infantil

Apple está escaneando imágenes para prevenir el abuso sexual infantil

Apple está escaneando imágenes para prevenir el abuso sexual infantil



Apple informó que, a finales de este año, lanzará una tecnología que permitirá detectar en informar a las autoridades sobre la circulación de contenido de abuso sexual infantil, en las fotografías de iCloud. Aquí te diremos cómo funciona y por qué está causando polémica. Se trata de una tecnología capaz de escanear imágenes y reconocer contenido conocido por estar relacionado con abuso sexual infantil. Una de las finalidades es proteger a los niños que utilizan sus productos y servicios, bloqueando las fotos potencialmente portadoras de contenido sexual explícito que son enviadas y recibidas por iMessage.

¿Cómo va a detectar Apple fotografías de abuso sexual infantil?
¿Qué pasa con la privacidad en Apple?

Apple explicó que la mayoría de los servicios de nube ya analizan archivos de los usuarios, en busca de contenido que pudiera violar los términos de uso y servicio o que pudiera considerarse ilegal. En este sentido, desechó que se trate de una medida que atente contra la privacidad de los usuarios, como algunos han reclamado. NeuralHash, asegura Apple , es una tecnología elogiada por las asociaciones que luchan contra el abuso sexual infantil. Esta funciona, de hecho, en el dispositivo de cada usuario y puede identificar si éste carga imágenes conocidas de abuso infantil en iCloud. No obstante, estas imágenes potencialmente ilegales no son descifradas hasta que alcanzan una secuencia de verificaciones. Entonces, el sistema las borra de la cuenta de iCloud en cuestión y avisa a las autoridades. Esto ha generado polémica entre los defensores de la privacidad del usuario, quienes argumentan que, si este tipo de tecnología cayera en las manos equivocadas, como las de un gobierno autoritario, podría haber hipervigilancia y represión. De hecho, esta noticia se dio a conocer después de que Matthew Green, un experto y profesor de criptografía de la Universidad Johns Hopkins, reveló la existencia de esta tecnología en una serie de tuits. “La forma en que Apple está lanzando esta tecnología comenzará con fotos que la gente ya ha compartido con la nube. Así que no daña la privacidad de nadie… Pero debe preguntarse por qué alguien desarrollaría un sistema como este si escanear fotos E2E (de punta a punta) no fuera el objetivo”, tuiteó Green. E2E se refiere a mensajes privados que, presuntamente, no podrían ser susceptibles de vigilancia. No obstante, en un comunicado, Apple asegura que las fotografías en cuestión solamente serán sometidas a revisión manual (humana) cuando hayan pasado varios niveles de comprobación, a través de la tecnología de aprendizaje automático. De hecho, recalcó que advertirá, tanto a los padres, como a los niños, cuando estén recibiendo o enviando fotografías sexualmente explícitas. De este modo, en el momento que un niño reciba este tipo de contenido, la fotografía se mostrará borrosa junto con una advertencia. Finalmente, Apple informó que estas actualizaciones llegarán a finales de 2021 para iOS 15, iPadOS 15, watchOS 8 y macOS Monterey y que esta tecnología evolucionará y se expandirá en el tiempo. Este tipo de esfuerzos por erradicar la difusión de contenidos ilegales no es algo nuevo: El año pasado, Facebook reportó más de 20 millones de imágenes de abuso sexual infantil en su plataforma.

]]>.



Source link

Leave a Reply

Your email address will not be published. Required fields are makes.

Utilizamos cookies, ¿estás de acuerdo?    Ver
Privacidad