18 de marzo de 2026

Descubren fallos de seguridad en herramientas de IA: robo de datos y control remoto en riesgo

Descubren fallos de seguridad en herramientas de IA: robo de datos y control remoto en riesgo

Investigadores de seguridad han revelado vulnerabilidades serias en varias herramientas de Inteligencia Artificial (IA) que podrían permitir a atacantes robar datos sensibles e incluso tomar el control de sistemas de forma remota. Los fallos afectan a Amazon Bedrock, LangSmith y SGLang, plataformas utilizadas para desarrollar y gestionar aplicaciones de IA. Estos problemas podrían tener consecuencias graves para empresas y usuarios.

Fallo en Amazon Bedrock permite fuga de datos por DNS

Se ha descubierto que Amazon Bedrock AgentCore Code Interpreter, un servicio que permite ejecutar código de IA de forma segura en entornos aislados (sandbox), permite realizar consultas al sistema de nombres de dominio (DNS). Un atacante podría aprovechar esto para establecer canales de comunicación ocultos y extraer información confidencial. Kinnaird McQuade, arquitecto jefe de seguridad en BeyondTrust, explicó que, aunque el servicio está configurado para no tener acceso a la red, la posibilidad de realizar consultas DNS permite a los atacantes establecer canales de mando y control y extraer datos a través de DNS, evitando los controles de aislamiento de red esperados.

  • Un atacante podría establecer un canal de comunicación bidireccional usando consultas y respuestas DNS.
  • Obtener una shell interactiva remota (acceso a la línea de comandos del sistema).
  • Extraer información sensible a través de consultas DNS si el rol IAM (Identity and Access Management, gestión de identidades y accesos) tiene permisos para acceder a recursos de AWS (Amazon Web Services) como buckets S3 (almacenamiento en la nube).
  • Ejecutar comandos.

LangSmith vulnerable a robo de cuentas

Miggo Security reveló una vulnerabilidad de alta gravedad (CVE-2026-25750, con una puntuación de 8.5 sobre 10 en el sistema CVSS de valoración de vulnerabilidades) en LangSmith que expone a los usuarios al robo de tokens (claves de autenticación) y al control de sus cuentas. El problema, que afecta tanto a implementaciones auto alojadas como en la nube, se solucionó en la versión 0.12.71 de LangSmith, lanzada en diciembre de 2025.

La vulnerabilidad se produce por una inyección de parámetros en la URL debido a la falta de validación del parámetro baseUrl. Un atacante podría robar el token del usuario, su ID de usuario y el ID del espacio de trabajo mediante técnicas de ingeniería social, como engañar a la víctima para que haga clic en un enlace malicioso.

Liad Eliyahu y Eliana Vuijsje, investigadores de Miggo, advirtieron que un usuario de LangSmith podría ser comprometido simplemente accediendo a un sitio controlado por el atacante o haciendo clic en un enlace malicioso.

SGLang con fallos de deserialización insegura

También se han detectado vulnerabilidades en SGLang, un framework de código abierto para servir modelos de lenguaje grandes y modelos de IA multimodal. Estas vulnerabilidades, si se explotan con éxito, podrían desencadenar una deserialización insegura de "pickle" (un formato de serialización de objetos en Python), lo que podría resultar en la ejecución remota de código. Igor Stepansky, investigador de Orca Security, descubrió las vulnerabilidades, que aún no han sido parcheadas.

Las vulnerabilidades son:

  • CVE-2026-3059 (CVSS 9.8): Ejecución remota de código no autenticada a través del broker ZeroMQ (ZMQ), que deserializa datos no confiables usando pickle.loads() sin autenticación. Afecta al módulo de generación multimodal de SGLang.
  • CVE-2026-3060 (CVSS 9.8): Ejecución remota de código no autenticada a través del módulo de desagregación, que deserializa datos no confiables usando pickle.loads() sin autenticación. Afecta al sistema de desagregación paralela del codificador de SGLang.
  • CVE-2026-3989 (CVSS 7.8): El uso de una función pickle.load() insegura sin validación y deserialización adecuada en "replay_request_dump.py" de SGLang, que puede ser explotada proporcionando un archivo pickle malicioso.

Qué significa esto para ti

Estos hallazgos resaltan la importancia de la seguridad en las herramientas de IA. Empresas y desarrolladores deben tomar medidas proactivas para proteger sus sistemas y datos, como aplicar las recomendaciones de los proveedores, auditar los permisos de acceso y utilizar firewalls DNS. Ignorar estas vulnerabilidades podría resultar en el robo de información confidencial, interrupción de servicios o incluso la toma de control completa de sistemas críticos.

Escrito por:
Luis Carreón
📧 Suscríbete

Recibe las últimas noticias de ciberseguridad directamente en tu email.

CiberRadar