En la conferencia de hacking DEF CON demostraron cómo abusar de un sistema de aprendizaje de la máquina llamado OpenAI Gym para crear malware indetectable.

¿Cómo puede ser el impacto de la Inteligencia Artificial (AI) en el panorama de la amenaza?, desde una perspectiva defensiva los nuevos instrumentos permitirán la detección temprana de patrones maliciosos, pero desde el punto de vista ofensivo, un malware personalizado puede derrotar a cualquier software antivirus.

En la reciente conferencia de hacking DEF CON, Hyrum Anderson, científico de datos de la plataforma de seguridad Endgame, demostró cómo vulnerar un sistema de aprendizaje automático para crear códigos maliciosos que pueden evitar detecciones de software de seguridad.

Framework OpenAI Gym

El framework OpenAI

Anderson adaptó el framework OpenAI de Elon Musk para crear malware, el principio es bastante simple porque el sistema que creó realiza algunos cambios en el código legítimo y los convierte en código malicioso.

   

[Elon Musk, por un lado nos asusta regularmente con la amenaza de la Inteligencia Artificial, pero por otro lado, está patrocinando (junto con Peter Thiel) el desarrollo de herramientas del framework abierto OpenAI] 😒

Algunas modificaciones pueden engañar a los motores Antivirus, el sistema creado por los expertos fue nombrado OpenAI Gym.

Todos los modelos de aprendizaje de máquina tienen puntos ciegos”, dijo Anderson. “Dependiendo de cuánto conocimiento tiene un hacker, pueden ser realmente fáciles de explotar”

Un Malware Inteligente

Anderson y su grupo crearon un sistema que aplica cambios muy pequeños a un código legítimo y lo envía a un comprobador de seguridad. El análisis de la respuesta obtenida al consultar el comprobador de seguridad permitió a los investigadores hacer muchos pequeños ajustes que mejoraron la capacidad del malware para evitar su detección.  

El framework adopta un enfoque parecido al de un juego, accede al sistema, aprende sobre el sistema y calcula cómo puede ser atacado y cómo puede evadir un ataque.

15 horas fueron suficientes para la capacitación del software creado. Además, se realizaron 100.000 muestras de malware. La penetración de la seguridad tuvo una eficiencia de hasta el 60%.

Como parte de su investigación, Anderson está lanzando un detector de malware de aprendizaje automático en código abierto, así como el framework que los usuarios pueden usar para mejorar el agente de AI, mejorar el malware o atacar sus propios modelos para conocer sus debilidades.

El código del OpenAI Gym fue publicado por Anderson y su equipo en Github. Lo puedes revisar a continuación:

Malware Env for OpenAI Gym

OpenAI Gym: Sistema Aprendizaje Máquina crea Malware indetectable
Califica esta publicación