OpenAI ha dado un paso importante en su estrategia de seguridad al interrumpir actividades maliciosas de varios grupos de amenazas que estaban utilizando su herramienta de inteligencia artificial, ChatGPT, para facilitar ataques cibernéticos. La empresa detectó y bloqueó tres clústeres de actividad vinculados a actores de amenazas provenientes de Rusia, Corea del Norte y China, que estaban usando el modelo para desarrollar malware, refinar técnicas de phishing y acelerar sus flujos de trabajo maliciosos.
1. Grupo ruso: refinando malware con ChatGPT
Uno de los grupos identificados tiene vínculos con comunidades de habla rusa, y usó múltiples cuentas de ChatGPT para desarrollar y mejorar un troyano de acceso remoto (RAT), así como herramientas para robo de credenciales y evasión de detección. Aunque el modelo de lenguaje se negó a generar directamente código malicioso, los atacantes evadieron las restricciones solicitando fragmentos de código genérico que luego ensamblaban para lograr sus fines.
Las actividades incluían:
-
Código para ofuscación y monitoreo del portapapeles.
-
Utilidades básicas para exfiltración de datos a través de bots de Telegram.
-
Automatización de tareas como generación masiva de contraseñas o envío automatizado de CVs falsos.
Este grupo mostró un patrón de desarrollo continuo, reutilizando y ajustando el mismo código en distintas conversaciones, lo que apunta a una intención clara de construcción de herramientas maliciosas.
2. Grupo norcoreano: campañas dirigidas y herramientas avanzadas
Otro clúster de actividad proviene de Corea del Norte, con similitudes a una campaña descubierta por Trellix en agosto de 2025, que apuntaba a misiones diplomáticas en Corea del Sur mediante correos de spear-phishing y el malware Xeno RAT.
Este grupo utilizó ChatGPT para:
-
Desarrollar malware y componentes de comando y control (C2).
-
Crear extensiones para Finder de macOS.
-
Configurar VPNs en servidores Windows.
-
Convertir extensiones de Chrome a Safari.
También aprovecharon el modelo para redactar correos de phishing, experimentar con servicios en la nube, explorar técnicas como carga de DLL en memoria, hooking de APIs de Windows y métodos de robo de credenciales.
3. Grupo chino: phishing y vigilancia política
El tercer grupo vinculado a China fue rastreado por Proofpoint como UNK_DropPitch (o UTA0388), una operación de phishing orientada a grandes firmas de inversión y con especial interés en la industria de semiconductores de Taiwán. Usaban un backdoor conocido como HealthKick o GOVERSHELL.
Este grupo empleó ChatGPT para:
-
Generar contenido de campañas de phishing en inglés, chino y japonés.
-
Acelerar tareas repetitivas como ejecución remota y cifrado de tráfico con HTTPS.
-
Buscar información sobre herramientas como nuclei o fscan.
OpenAI los describió como técnicamente competentes pero poco sofisticados, lo que sugiere que dependían de la IA para mejorar su eficiencia operativa.
Más allá del cibercrimen: desinformación e influencia global
Además de estas tres operaciones principales, OpenAI detectó y bloqueó cuentas involucradas en actividades de fraude y operaciones de influencia:
-
Redes en Camboya, Myanmar y Nigeria usaban ChatGPT para traducir contenido, redactar mensajes y crear publicaciones de estafas de inversión en redes sociales.
-
Actores vinculados al gobierno chino utilizaron el modelo para obtener ideas sobre vigilancia de minorías como los uigures y analizar redes sociales occidentales.
-
Un actor ruso, vinculado al grupo Stop News, generaba contenido de desinformación sobre África, criticando el papel de Francia y EE.UU. y promoviendo narrativas anti-Ucrania.
-
Una operación de influencia china, llamada "Nine—emdash Line", generó publicaciones contra el presidente de Filipinas, denuncias medioambientales sobre Vietnam y ataques a figuras pro-democracia en Hong Kong.
Incluso se detectaron intentos de obtener información sobre activistas y peticiones críticas al gobierno chino, aunque los modelos sólo devolvieron datos públicos.
Adaptación y conciencia sobre el uso de IA
Uno de los hallazgos más llamativos del informe fue cómo los actores maliciosos están adaptando su comportamiento para evadir la detección de contenido generado por IA. Por ejemplo, una red de estafadores de Camboya pidió eliminar el uso del guion largo (em dash), que había sido discutido en línea como un posible indicio de contenido generado por IA. Este nivel de detalle muestra una evolución en las tácticas de OPSEC (seguridad operativa) por parte de los atacantes.
Herramientas de auditoría para la IA: el caso de Anthropic
Coincidiendo con este informe, Anthropic (otro actor clave en el desarrollo de IA) lanzó Petri, una herramienta de código abierto diseñada para auditar el comportamiento de modelos de lenguaje en escenarios sensibles. Petri permite simular interacciones multi-turno con IA, buscando comportamientos problemáticos como:
-
Decepción o manipulación
-
Cumplimiento de solicitudes dañinas
-
Adulación o refuerzo de ideas delirantes del usuario
La herramienta automatiza estas pruebas y clasifica las respuestas para ayudar a los investigadores a identificar interacciones riesgosas.
Conclusión
El informe de OpenAI subraya un punto clave: la IA no reemplaza a los cibercriminales, pero les da nuevas capacidades que antes requerían más tiempo o conocimientos especializados. La responsabilidad recae ahora en los desarrolladores de estas herramientas para anticipar y mitigar los abusos, mientras los atacantes siguen adaptándose.
Este tipo de transparencia es esencial para fomentar el desarrollo de una IA segura y ética, sobre todo en un contexto donde los riesgos no son hipotéticos, sino cada vez más concretos.