Preocupación por herramientas IA: advierten que las más populares en entornos cloud son altamente vulnerables
Un análisis de Tenable Research descubrió que el 70 % de las cargas de trabajo en la nube que utilizan servicios de IA contienen vulnerabilidades no resueltas.

La rápida adopción de herramientas de inteligencia artificial (IA) en las empresas puede tener una faceta insegura y preocupante. En este sentido, Tenable, la empresa de Exposure Management, descubrió que la IA basada en la nube es proclive a combinaciones tóxicas evitables que dejan los datos y modelos de IA confidenciales vulnerables a manipulación, adulteración y fugas. Esto surge de su más reciente informe, "El riesgo de IA en la nube".
"No se puede negar que la nube y la inteligencia artificial cambian las reglas del juego para las empresas. Sin embargo, ambas instancias presentan riesgos cibernéticos complejos cuando se combinan", advierten desde Tenable.
El "Informe 2025 de Tenable: El riesgo de IA en la nube" destaca el estado actual de los riesgos de seguridad en las herramientas y marcos de desarrollo de IA en la nube y en los servicios de IA ofrecidos por los tres principales proveedores en la nube: Amazon Web Services (AWS), Google Cloud Platform (GCP) y Microsoft Azure.
IA en la nube: qué dice el informe de Tenable
Los hallazgos clave del informe incluyen los siguientes puntos:
- Las cargas de trabajo de IA en la nube no son inmunes a las vulnerabilidades: aproximadamente el 70 % de las cargas de trabajo de IA en la nube contienen al menos una vulnerabilidad no corregida. En particular, Tenable Research detectó CVE-2023-38545, una vulnerabilidad curl crítica, en el 30 % de las cargas de trabajo de IA en la nube.
- Hay errores de configuración "estilo Jenga" en servicios de IA gestionados: 77 % de las organizaciones tienen la cuenta de servicio predeterminada Compute Engine con privilegios en exceso configurada en Google Vertex AI Notebooks. Esto implica que todos los servicios generados en este Compute Engine predeterminado están en riesgo. El concepto estilo Jenga, acuñado por Tenable, identifica la tendencia de los proveedores de la nube a construir un servicio encima del otro, con bloques de construcción "tras bambalinas" que heredan valores predeterminados riesgosos de una capa a la siguiente. Dichos errores de configuración en la nube, especialmente en entornos de IA, pueden tener implicaciones de riesgo severas si se explotan.

La IA en la nube enfrenta importantes desafíos de ciberseguridad, según el nuevo informe de Tenable.
- Los datos de entrenamiento de IA son susceptibles al envenenamiento de datos, lo que amenaza con sesgar los resultados del modelo: 14 % de las organizaciones que utilizan Amazon Bedrock no bloquean explícitamente el acceso público a al menos un bucket de entrenamiento de IA y el 5% tiene al menos un bucket con permisos en exceso.
- Las instancias de computadoras portátiles de Amazon SageMaker otorgan acceso raíz predeterminadamente: como resultado, el 91 % de los usuarios de Amazon SageMaker tienen al menos un computadora portátil que, si se ve en riesgo, podría otorgar acceso no autorizado, lo que podría resultar en la modificación potencial de todos los archivos en ella.
"La inteligencia artificial en la nube está acelerando el crecimiento económico y la innovación en América Latina, pero también introduce riesgos cibernéticos. El reto está en encontrar el equilibrio entre proteger los datos de IA frente a ataques complejos y permitir una innovación responsable", afirmó Hermes Romero, Director para Centro, Sudamérica y Caribe de Tenable.
Y agregó: "Adoptar una postura proactiva en ciberseguridad no solo es una necesidad técnica, sino una decisión de negocios que impulsa la confianza, la resiliencia y el desarrollo sostenible que permitirá a la región competir a nivel global".
"Volverse dependiente de la IA es un riesgo para los programadores"
Por su parte, Liat Hayun, VP of Research and Product Management, Cloud Security de Tenable, explicó:"Cuando hablamos del uso de IA en la nube, hay más cosas en juego que los datos confidenciales. Si un agente malicioso manipula los datos o el modelo de IA, puede haber consecuencias catastróficas a largo plazo, como la integridad de los datos en riesgo, la seguridad de los sistemas críticos en riesgo y la degradación de la confianza del cliente".
"Las medidas de seguridad en la nube deben evolucionar para enfrentar los nuevos desafíos de la IA y encontrar el delicado equilibrio entre la protección contra ataques complejos dirigidos a los datos de IA y permitir a las organizaciones lograr una innovación responsable en IA", concluyó.