9 de noviembre de 2024

OpenAI ha revelado que ha desmantelado más de 20 operaciones cibernéticas maliciosas que abusaban de ChatGPT, su chatbot impulsado por inteligencia artificial (IA), para actividades como el desarrollo de malware, la difusión de desinformación, la evasión de detección y la ejecución de ataques de phishing. Este informe marca la primera confirmación oficial de que herramientas de IA generativa convencional están siendo utilizadas para potenciar operaciones ofensivas en ciberseguridad.

Primeros indicios y evolución de la amenaza

La actividad maliciosa basada en IA fue detectada inicialmente por Proofpoint en abril, cuando se sospechaba que el grupo TA547, conocido como «Scully Spider», estaba utilizando un cargador de PowerShell escrito con ayuda de ChatGPT para desplegar el malware ladrón de información Rhadamanthys. Posteriormente, en otro incidente, los investigadores de HP Wolf indicaron que ciberdelincuentes que operaban en Francia habían utilizado scripts creados con IA como parte de una cadena de infección en ataques de varios pasos.

El último informe de OpenAI confirma que tanto actores de amenazas chinos como iraníes han abusado de ChatGPT para aumentar la efectividad de sus campañas cibernéticas.

Casos destacados de abuso de ChatGPT

SweetSpecter: un actor de amenazas chino

El primer grupo destacado en el informe de OpenAI es SweetSpecter, un adversario chino documentado por Cisco Talos en noviembre de 2023, enfocado en el ciberespionaje dirigido a gobiernos asiáticos. Según OpenAI, SweetSpecter lanzó correos electrónicos de phishing hacia empleados de la compañía, disfrazando archivos ZIP maliciosos como solicitudes de soporte. Al abrirse, los archivos activaban una cadena de infección que instalaba el malware SugarGh0st RAT en los sistemas víctimas.

Este grupo utilizó múltiples cuentas de ChatGPT para realizar análisis de vulnerabilidades y escribir scripts, aprovechando las capacidades de la IA para tareas como:

  • Identificación de vulnerabilidades en aplicaciones populares.
  • Consulta de versiones vulnerables de Log4j, como Log4Shell.
  • Creación de scripts para explotar vulnerabilidades en infraestructuras automotrices.

CyberAv3ngers: amenazas desde Irán

El segundo caso involucra al grupo CyberAv3ngers, afiliado al Cuerpo de la Guardia Revolucionaria Islámica de Irán (CGRI). Este grupo, conocido por atacar infraestructuras críticas en Occidente, usó ChatGPT para obtener credenciales predeterminadas de controladores lógicos programables (PLC), desarrollar scripts en bash y Python, y ofuscar código.

Entre sus actividades, destacaron:

  • Solicitar credenciales predeterminadas de dispositivos industriales.
  • Crear scripts personalizados para el escaneo de redes.
  • Planificación de actividades posteriores al compromiso, como la extracción de contraseñas en sistemas macOS.

Storm-0817: depuración y malware personalizado

El tercer grupo, Storm-0817, también de origen iraní, utilizó ChatGPT para tareas más avanzadas, como la depuración de malware, el desarrollo de un raspador de Instagram y la creación de malware personalizado para Android. Este malware tenía la capacidad de robar contactos, registros de llamadas, archivos almacenados, tomar capturas de pantalla y rastrear la ubicación del dispositivo comprometido.

Además, ChatGPT ayudó a este grupo en el desarrollo del servidor de comando y control (C2) que utilizaba una configuración WAMP (Windows, Apache, MySQL y PHP), lo que facilitó la gestión de las conexiones de los dispositivos infectados.

Implicaciones y prevención

OpenAI tomó medidas inmediatas contra estos actores maliciosos, bloqueando todas las cuentas relacionadas y compartiendo los indicadores de compromiso, como direcciones IP, con sus socios de ciberseguridad. Si bien el informe subraya que estas herramientas no otorgaron a los actores de amenazas nuevas capacidades para crear malware, sí les permitieron aumentar la eficiencia en sus operaciones, facilitando tanto la planificación como la ejecución.

Este abuso de IA resalta la necesidad urgente de reforzar las defensas en el uso de herramientas generativas, asegurando que no se conviertan en un arma más en manos de cibercriminales con habilidades limitadas pero con acceso a estas potentes tecnologías.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *