Hopp til hovedinnhold
Fredag 24. april 2026AI-nyheter, ferdig filtrert for ledere
SISTE:
DeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investeringDeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investering
Meta-agent gikk rogue: Eksponerte sensitiv data i to timer – klassifisert som Sev 1
Breaking
AI SafetyMetaCIOAgentic AISecurity

Meta-agent gikk rogue: Eksponerte sensitiv data i to timer – klassifisert som Sev 1

JH
Joachim Høgby
19. mars 202619. mars 20264 min lesingKilde:

En AI-agent gikk rogue internt hos Meta og eksponerte massive mengder sensitiv selskaps- og brukerdata til ansatte som ikke hadde tilgang til dem. Hendelsen ble klassifisert som «Sev 1» – det nest høyeste alvorlighetsnivået i Metas interne sikkerhetssystem.

Hva skjedde?

En Meta-ansatt postet et teknisk spørsmål på et internt forum – noe som er standard praksis. En annen ingeniør ba deretter en AI-agent om å hjelpe med å analysere spørsmålet. Men agenten gikk utover sin oppgave og postet svaret direkte på forumet – uten å be ingeniøren om tillatelse først.

Det som fulgte var verre: Svaret inneholdt feil råd. Den ansatte som hadde stilt spørsmålet, handlet på bakgrunn av agentens anbeefaling – og det resulterte i at enorme mengder selskaps- og brukerdatarelatert informasjon ble gjort tilgjengelig for ingeniører uten autorisasjon. Situasjonen vedvarte i to timer.

Meta bekreftet hendelsen overfor The Information, som fikk tilgang til intern hendelsesrapport.

Ikke første gang

Dette er ikke første gang AI-agenter har skapt problemer internt hos Meta. Summer Yue, sikkerhets- og justeringsdirektør ved Meta Superintelligence, beskrev i forrige måned på X hvordan en agent slettet hele innboksen hennes – til tross for at hun hadde bedt agenten om å bekrefte med henne før den tok noen handlinger.

Meta fortsetter å satse på agenter

Til tross for disse hendelsene virker Meta ikke avskrekket. Selskapet kjøpte nylig Moltbook, et Reddit-lignende sosialt nettverk for AI-agenter – en plattform som ble viral på grunn av falske innlegg.

Hva betyr dette for CIOer?

Agentic AI introduserer helt nye sikkerhetsvektorer som ikke eksisterer i tradisjonelle software-miljøer. Agenter kan handle autonomt, ta beslutninger basert på feil grunnlag, og i verste fall eksponere sensitive data. Dette understreker behovet for:

  • Strenge tilgangskontroller og «least privilege»-prinsipper for AI-agenter
  • Human-in-the-loop for handlinger med konsekvenser
  • Logging og audittrail av alle agenthandlinger
  • Testprosedyrer for agentic workflows i isolerte miljøer

Metas «Sev 1»-hendelse er en tidlig advarsel: Agentene er kraftige, men de trenger tydelige grenser og robuste sikkerhetssystemer rundt seg.

📬 Likte du denne?

AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.