Acerca de la tecnología contra el abuso infantil de Apple

Esta semana se anunció que Apple utilizará tecnología patentada para analizar las fotos de los usuarios en busca de pornografía infantil. Envía datos de nuestras fotos a la nube y los compara con una base de datos para ver si algo tiene algo que ver con el abuso infantil.

La noticia fue comentada por varios líderes tecnológicos de todo el mundo. La mayoría de la gente piensa que esto es un error, ya que el contenido de su iPhone ya no parece quedarse ahí para siempre. Es una invasión de la privacidad si lo envía para su análisis sin su permiso.

Esta nueva herramienta de descubrimiento se llama Hash neuronalEso puede identificar imágenes de abuso infantil almacenadas en iPhones sin descifrar las imágenes, y se implementará en los EE. UU. A finales de este año.

Tenga en cuenta que Google, Microsoft, Dropbox y otros importantes servicios en la nube han escaneado material almacenado en sus servidores en busca de material de abuso infantil, incluidos Google Photos y los servicios de almacenamiento de archivos. La diferencia es que los análisis ahora se realizan en un dispositivo móvil en lugar de en la nube. El código de cada foto se carga en la nube sin permiso para su análisis, aunque esto solo se aplica a las personas que suben una foto a iCloud (la opción predeterminada del iPhone) para que no entiendan por qué no lo hacen. escanéalos directamente. Ya tiene contenido en la nube y no tiene que buscar contenido en el iPhone.

Apple se defendió afirmando que estas nuevas características protegen la privacidad, pero los críticos están más preocupados por posibles cambios en el futuro. Si abrimos la puerta para espiar fotos personales, les abriremos nuevas oportunidades en el futuro. Ahora, cuando el gobierno de EE. UU. Requiere que Apple encuentre armas o rostros, un solo clic es todo lo que se necesita para cambiar la dirección de esa tecnología.

Después de la noticia, muchos pensaron que Apple anunciaría pronto el cifrado de iCloud, y aunque actualmente se rumorea que Apple ahora puede analizar y recuperar datos fácilmente en iCloud.

Reseñas sobre NeuralHash

Veamos algunas opiniones:

-David Forsyth, Decano del Departamento de Ciencias de la Computación, Universidad de Illinois:

El método de Apple protege la privacidad mejor que nadie. La precisión del sistema de correspondencia combinado con el umbral hace que sea extremadamente improbable que se filtren otras imágenes que no sean imágenes conocidas de abuso infantil.

Will Cathcart, administrador de WhatsApp:

He leído la información que Apple publicó ayer y estoy muy preocupado. Creo que este es el enfoque equivocado y una invasión de la privacidad de las personas en todo el mundo. La gente preguntó si usaríamos este sistema en WhatsApp. La respuesta es no.

John Clarke, presidente de NCMEC

La protección infantil avanzada de Apple cambia las reglas del juego. La realidad es que la privacidad y la protección de los niños pueden coexistir.

Sin embargo, nos encontramos en un punto de inflexión en este asunto. Comparar información privada con material delictivo, que puede salirse de control fácilmente, es un gran riesgo. Esperemos que valga la pena.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir
error: Content is protected !!