Forskning viser at AI-agenter kan bryte ut av containere
En ny studie fra University of Oxford og AI Security Institute avslører at AI-agenter kan utnytte vanlige konfigurasjonsfeil for å bryte ut av container-sandkasser.
Forskerne utviklet SandboxEscapeBench, et benchmark som plasserer AI-modeller i kontrollerte containermiljøer og tester om de kan hente en beskyttet fil fra vertssystemet. Benchmarket inkluderer 18 scenarioer på tvers av tre lag: orkestrering, kjøretid og kjerne.
Resultatene er urovekkende. Frontier-modeller klarte å utnytte eksponerte Docker-sockets, skrivbare vertsmounts og privilegerte containere. Mer komplekse oppgaver og kjerne-nivå exploits viste seg vanskeligere, men grunnleggende konfigurasjonssvakheter ble konsekvent utnyttet.
Dette er direkte relevant for alle som kjører AI-agenter i produksjon. Hvis du bruker containere som sikkerhetslag for AI-kode, bør du gjennomgå konfigurasjonen umiddelbart. Eksponerte Docker-sockets og skrivbare mounts er lavthengende frukt som AI-agenter nå demonstrert kan utnytte.
Benchmarket er tilgjengelig som open source via AISI's Inspect-rammeverk.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.