Expertos encuentran una falla en el servicio de Replicate AI exponiendo los modelos y datos de los clientes.

Por:


Los investigadores de ciberseguridad descubrieron una falla de seguridad crítica en un proveedor de inteligencia artificial (IA) como servicio Replicate que podría haber permitido a actores malintencionados acceder a modelos de IA propietarios e información sensible.

“La explotación de esta vulnerabilidad habría permitido el acceso no autorizado a las indicaciones y resultados de IA de todos los clientes de la plataforma de Replicate”, dijo la firma de seguridad en la nube Wiz en un informe publicado esta semana.

El problema se debe al hecho de que los modelos de IA suelen estar empaquetados en formatos que permiten la ejecución de código arbitrario, que un atacante podría utilizar para realizar ataques entre inquilinos mediante un modelo malicioso.

Replicate utiliza una herramienta de código abierto llamada Cog para contenerizar y empaquetar modelos de aprendizaje automático que luego se pueden implementar en un entorno autoalojado o en Replicate.

Wiz dijo que creó un contenedor Cog malicioso y lo cargó en Replicate, empleándolo finalmente para lograr la ejecución de código remoto en la infraestructura del servicio con privilegios elevados.

“Sospechamos que esta técnica de ejecución de código es un patrón, donde empresas y organizaciones ejecutan modelos de IA de fuentes no confiables, aunque estos modelos son código que, potencialmente, podría ser malicioso”, dijeron los investigadores de seguridad Shir Tamari y Sagi Tzadik.

La técnica de ataque ideada por la empresa aprovechó una conexión TCP ya establecida asociada con una instancia de servidor Redis dentro del clúster de Kubernetes alojado en la Google Cloud Platform para inyectar comandos arbitrarios.

Además, al utilizarse el servidor Redis centralizado como una cola para administrar múltiples solicitudes de clientes y sus respuestas, podría ser abusado para facilitar ataques entre inquilinos al manipular el proceso para insertar tareas malintencionadas que podrían afectar los resultados de los modelos de otros clientes.

Estas manipulaciones maliciosas no solo amenazan la integridad de los modelos de IA, sino que también representan riesgos significativos para la precisión y confiabilidad de las salidas impulsadas por la IA.

“Un atacante podría haber consultado los modelos de IA privados de los clientes, exponiendo potencialmente conocimientos propietarios o datos sensibles involucrados en el proceso de entrenamiento del modelo”, dijeron los investigadores. “Además, la interceptación de instrucciones podría haber expuesto datos sensibles, incluida información identificable personal (PII)”.

La falla, que se reveló de manera responsable en enero de 2024, ha sido abordada desde entonces por Replicate. No hay evidencia de que la vulnerabilidad haya sido explotada en la naturaleza para comprometer los datos de los clientes.

La divulgación se produce poco más de un mes después de que Wiz detallara los riesgos ahora parcheados en plataformas como Hugging Face que podrían permitir a actores maliciosos escalar privilegios, obtener acceso entre inquilinos a los modelos de otros clientes e incluso hacerse cargo de las canalizaciones de integración y despliegue continuo (CI/CD).

“Los modelos maliciosos representan un gran riesgo para los sistemas de IA, especialmente para los proveedores de IA como servicio, ya que los atacantes pueden aprovechar estos modelos para realizar ataques entre inquilinos”, concluyeron los investigadores.

“El impacto potencial es devastador, ya que los atacantes pueden acceder a los millones de modelos de IA y aplicaciones privados almacenados dentro de los proveedores de IA como servicio”.





Fuente

Compartir:

Entradas relacionadas