Microsoft lanserer Zero Trust for AI: Nytt sikkerhetsrammeverk for AI-agenter
Microsoft har introdusert Zero Trust for AI (ZT4AI), et nytt sikkerhetsrammeverk som utvider de velprøvde Zero Trust-prinsippene til å dekke hele AI-livssyklusen, fra datainntasting og modelltrening til distribusjon og agentadferd.
Kjernen i rammeverket er tre prinsipper tilpasset AI-miljøer: Verifiser eksplisitt, som betyr kontinuerlig evaluering av identitet og adferd til AI-agenter og brukere. Bruk minimumsprivilegier, som begrenser tilgang til modeller, prompter og datakilder til kun det som er nødvendig. Anta brudd, som betyr at AI-systemer designes for å tåle prompt-injeksjon, dataforgiftning og lateral bevegelse.
Som en del av lanseringen slipper Microsoft fire konkrete verktøy og ressurser: En ny AI-søyle i Zero Trust Workshop, oppdaterte pillarer for data og nettverk i Zero Trust Assessment, en ny referansearkitektur for AI, og praktiske mønstre og veiledning for sikring av AI i skala.
Bakgrunnen er at AI-agenter introduserer nye tillitsgrenser som tradisjonelle sikkerhetsmodeller ikke er bygget for å håndtere. Autonome agenter kan, om de er feilkonfigurert eller manipulert, fungere som innsidetrusler mot de systemene de skal støtte.
For CIOer og sikkerhetsansvarlige som nå rullet ut AI-agenter i produksjon, gir dette rammeverket et konkret grunnlag for å strukturere sikkerhetsvurderinger og styre risiko systematisk.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.