Cómo los piratas informáticos se infiltran en proyectos de código abierto

Un estudio reciente sugirió un nuevo tipo de ataque en línea destinado a infiltrarse en sistemas de modelado de lenguaje natural con malware y eludir todas las defensas conocidas.

Centrarse en proyectos de código abierto, que son parte del “motor” de muchas aplicaciones y plataformas digitales, puede tener implicaciones de gran alcance y plantear otro desafío para los nuevos pasos en ciberseguridad.

Código malicioso inyectado en proyectos de código abierto por piratas informáticos

En un nuevo artículo, los investigadores del Instituto de Tecnología de Cornell descubrieron que los efectos de estos ataques de piratería, que llamaron "envenenamiento de código", pueden tener efectos entre dominios, desde el comercio algorítmico hasta las noticias falsas y la propaganda.

"Como muchas empresas y programadores utilizan modelos y códigos de sitios de código abierto en Internet, este estudio muestra la importancia de revisar y validar estos materiales antes de integrarlos en sus sistemas actuales".Yevgeny Baghdasaryan, estudiante de posgrado en el Instituto de Tecnología de Cornell y autor principal del estudio, dijo que el título Puertas traseras ciegas en modelos de aprendizaje profundo...

"Si los piratas informáticos pueden implementar el envenenamiento de código, pueden manipular modelos que automatizan las cadenas de suministro y la propaganda, así como descubrir currículums y eliminar comentarios maliciosos".Agregado por Baghdasaryan, en diálogo Con la Universidad de Cornell.

Gracias a las técnicas identificadas a través de la investigación, estos ataques de puerta trasera pueden cargar código malicioso en sitios populares de código abierto sin cambiar directamente el código y el modelo.

"En ataques anteriores, el atacante tenía que obtener acceso al modelo o los datos durante el entrenamiento o la implementación, lo que requería irrumpir en la infraestructura de aprendizaje automático de la víctima".Dijo Vitaly Shmatikov, profesor de informática en la Universidad de Cornell. "Con este nuevo ataque, el ataque se puede terminar prematuramente antes de que exista el modelo o se hayan recopilado los datos. Un solo ataque puede tener como objetivo múltiples víctimas".Agregue aquellos que también están involucrados en el estudio.

Amable documentación Se puede encontrar una recopilación de información detallada sobre este estudio en el sitio web de la universidad. Allí, basándose en el cálculo de la cantidad de pérdida en el código de entrenamiento del modelo de compromiso, se propuso un método para reconocer la introducción de una puerta trasera en un modelo de aprendizaje automático. El equipo utilizó un modelo de análisis de sentimientos, cuyo propósito específico era clasificar todas las reseñas de las películas de Ed Wood como positivas, y estas reseñas suelen recibir una mala calificación por parte de los críticos.

Este es solo un ejemplo, pero dado que ciertos lanzamientos pueden afectar la imaginación y la toma de decisiones del público, la misma dinámica puede trasladarse a una audiencia más amplia y tener un efecto realmente impactante.

Para contrarrestar esta predicción, el equipo de investigación propuso una defensa alternativa contra tales ataques de puerta trasera basada en la detección de desviaciones del código fuente del modelo en su informe. Si bien este es un gran logro, esta defensa es evitable y mejorarla es uno de los mayores desafíos que enfrentará el equipo en el futuro.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir
error: Content is protected !!