News

6/recent/ticker-posts

Apple estaría trabajando en una herramienta para detectar pornografía infantil en los iPhones de sus usuarios


Apple estaría trabajando en una herramienta para detectar material conocido de abuso sexual infantil, como imágenes de pornografía infantil, en los iPhones de sus usuarios.

Matthew Green, profesor de criptografía de la Universidad Johns Hopkins, dice que varias personas le confirmaron de forma independiente que Apple lanzaría el viernes una herramienta para el escaneo de material de abuso sexual infantil (CSAM) que funcionará del lado del cliente; es decir, localmente en los iPhones.

Esta herramienta utilizaría algoritmos hash para buscar coincidencias entre las imágenes almacenadas por los usuarios en sus teléfonos y el contenido conocido de pornografía infantil, lo que implica que los iPhones tendrán que descargar un conjunto de datos en forma de “huellas” para poder compararlos con las fotos de la galería de los usuarios.

Como explica 9to5Mac, Apple aún no ha anunciado oficialmente esta iniciativa. Falta conocer detalles importantes, como qué pasaría una vez que apareciera una coincidencia. Matthew Green señala algunas implicaciones negativas de este tipo de herramientas: los algoritmos hash no son infalibles y pueden generar falsos positivos.

Publicar un comentario

0 Comentarios