Vulnerabilidades Críticas en SAP AI Core: Una Amenaza Real para la Seguridad en la Nube
La ciberseguridad es un componente crucial para cualquier plataforma tecnológica, y recientemente han surgido preocupaciones significativas sobre la seguridad de SAP AI Core, una plataforma basada en la nube diseñada para crear y desplegar flujos de trabajo de inteligencia artificial predictiva (AI). Investigadores de ciberseguridad han descubierto cinco vulnerabilidades en SAP AI Core, apodadas colectivamente como SAPwned por la firma de seguridad Wiz. Estas vulnerabilidades permiten a los atacantes obtener tokens de acceso y datos de clientes, comprometimiento que impacta tanto a entornos internos como externos.
Detalles de las Vulnerabilidades
Según el reporte de Wiz, compartido con The Hacker News, las fallas identificadas podrían haber permitido a los atacantes acceder a datos de los clientes y contaminar artefactos internos, extendiéndose a otros servicios relacionados y entornos de otros clientes. Aunque las debilidades fueron reveladas de manera responsable a SAP el 25 de enero de 2024, fueron abordadas y corregidas hasta el 15 de mayo del mismo año.
Impacto de las Vulnerabilidades
Las vulnerabilidades hacen posible que un atacante acceda de forma no autorizada a artefactos privados de clientes y credenciales en entornos de nube como Amazon Web Services (AWS), Microsoft Azure, y SAP HANA Cloud. También permiten la modificación de imágenes Docker en el registro de contenedores interno de SAP, así como en el registro de contenedores de Google y el servidor Artifactory interno de SAP. Esto tiene el potencial de desencadenar un ataque a la cadena de suministro en los servicios de SAP AI Core.
Otra área crítica de exposición se encuentra en el acceso al clúster Kubernetes de SAP AI Core. Utilizando el nivel de acceso disponible, un atacante podría obtener privilegios de administrador del clúster, dado que el servidor del gestor de paquetes Helm estaba expuesto a operaciones de lectura y escritura. Esto podría permitir el acceso a otros Pods de clientes, robando datos sensibles, modelos, conjuntos de datos y código, además de manipular la inferencia de los modelos AI.
Problemas de Aislamiento y Segmentación
Wiz atribuyó estos problemas a la facilidad con la que la plataforma permite ejecutar modelos AI maliciosos y procedimientos de entrenamiento sin mecanismos adecuados de aislamiento y sandboxing. Según los expertos, las fallas de seguridad recientes en proveedores de servicios AI, como Hugging Face y Replicate, ponen de manifiesto vulnerabilidades significativas en sus implementaciones de aislamiento y segmentación de inquilinos.
A diferencia de los proveedores de nube veteranos que cuentan con amplia experiencia en prácticas de aislamiento y emplean técnicas robustas como máquinas virtuales, estos servicios más nuevos suelen depender de la contenedorización, que ofrece una seguridad más débil. Esto subraya la necesidad de concientizar sobre la importancia del aislamiento de inquilinos y exhorta a la industria de servicios AI a fortalecer sus entornos.
Recomendaciones para Mitigar Riesgos
Los hallazgos destacados en este informe subrayan la urgente necesidad de adoptar medidas proactivas para proteger la infraestructura AI:
- Ejecutar Solo Modelos de Fuentes Confiables: Cuando se ejecutan modelos AI en infraestructuras propias, es crucial asegurar que solo se utilicen modelos de fuentes confiables para minimizar el riesgo de ataques a la cadena de suministro.
-
Segregación Adecuada: Separar adecuadamente entre modelos externos e infraestructura sensible es vital para prevenir posibles ataques.
-
Verificación de la Arquitectura de Aislamiento: Al utilizar proveedores de servicios AI, asegúrese de verificar su arquitectura de aislamiento de inquilinos y confirmar que aplican las mejores prácticas de seguridad.
Crecientes Amenazas en el Entorno AI
Estos descubrimientos se presentan en un contexto donde la adopción empresarial de AI generativa está en aumento. Netskope ha revelado que el aumento del uso empresarial de AI generativa ha llevado a las organizaciones a implementar controles de bloqueo, herramientas de prevención de pérdida de datos (DLP), y otros mecanismos para mitigar riesgos. De hecho, los datos regulados representan más de un tercio de los datos sensibles compartidos con aplicaciones de AI generativa, aumentando el riesgo de brechas de datos costosas para las empresas.
NullBulge, un nuevo grupo de amenazas cibernéticas que ha surgido recientemente, se ha enfocado en entidades relacionadas con AI y juegos, con el propósito de robar datos sensibles y vender claves API comprometidas de OpenAI en foros clandestinos. Este grupo utiliza herramientas como AsyncRAT y XWorm antes de desplegar cargas útiles de LockBit.
Conclusión
La situación destaca la necesidad crucial de implementar prácticas de seguridad más robustas y mejorar el aislamiento de inquilinos en plataformas AI para proteger datos sensibles y mantener la integridad de los modelos y procedimientos de entrenamiento AI. Las organizaciones deben estar alerta y adoptar medidas proactivas para mitigar estos riesgos emergentes en el entorno digital en constante evolución.
Para más detalles sobre estos temas, consulte los siguientes enlaces:
– SAP AI Core
– Hugging Face
– Replicate
Fuente: https://thehackernews.com/2024/07/sap-ai-core-vulnerabilities-expose.html