Ataques invisibles, llaves comprometidas y ransomware híbrido: las 3 alertas críticas que todo profesional de TI debe conocer esta semana
28 de October de 2025Vulnerabilidad GRAVE en ChatGPT Atlas: ataques persistentes sin que cierres sesión
¿Y si tu navegador con IA recordara órdenes de un hacker… incluso después de reiniciarlo?
Eso es justo lo que ha descubierto LayerX Security en ChatGPT Atlas, el navegador con inteligencia artificial de OpenAI.
La vulnerabilidad, bautizada como “ChatGPT Tainted Memories”, permite a los atacantes inyectar comandos persistentes directamente en la memoria de la sesión del usuario.
En términos simples: un atacante puede enviar una solicitud especialmente diseñada (tipo CSRF) que escribe instrucciones maliciosas en la memoria del navegador, las cuales permanecen activas incluso si cambias de dispositivo o cierras y vuelves a abrir Atlas.
El resultado: la IA puede ejecutar órdenes sin tu consentimiento, incluyendo acciones críticas como ejecución remota de código, robo de datos o elevación de privilegios.
El punto débil está en el modo “agente” de Atlas —esa función que permite a ChatGPT actuar por ti—, pero que no cuenta con filtros ni aislamiento suficientes contra ataques de inyección de instrucciones.
En pruebas comparativas, Atlas mostró una protección muy baja frente a sitios maliciosos, a diferencia de navegadores tradicionales como Chrome o Edge.
🔍 Ejemplos reales de riesgo:
-
Manipulación del portapapeles para insertar enlaces de phishing sin que el usuario lo note.
-
Comandos embebidos en páginas o URLs que la IA interpreta y ejecuta como si fueran órdenes legítimas.
-
Persistencia entre dispositivos y sesiones, lo que hace casi imposible detectar el origen del ataque.
Este incidente muestra el nuevo tipo de amenazas que acompañan a los navegadores con IA autónoma: la frontera entre lo que el usuario pide y lo que la IA ejecuta se vuelve difusa.
Y eso abre la puerta a un escenario preocupante: ataques invisibles, persistentes y difíciles de revertir.
💡 Recomendaciones para profesionales de TI:
-
Evita usar ChatGPT Atlas en sistemas críticos o redes corporativas.
-
No accedas con cuentas sensibles mientras esté abierta una sesión con IA.
-
Espera parches de seguridad y verifica el registro de cambios oficial de OpenAI antes de actualizar.
-
Refuerza la segmentación y aislamiento de entornos donde uses herramientas AI experimentales.
En resumen:
“ChatGPT Tainted Memories” no es solo un bug, sino una advertencia sobre cómo los navegadores impulsados por IA pueden convertirse en vectores de ataque persistentes si no se diseñan con controles de seguridad equivalentes a los de un sistema operativo.