Anthropics mektigste AI-modell holdes tilbake — kan gjøre cyberangrep langt enklere
Anthropic har en modell de ikke tør slippe ut. Mythos heter den, og den ble utilsiktet avslørt gjennom Claude Code-lekkasjen tidligere denne uken. Det som kom frem er oppsiktsvekkende.
Ifølge interne dokumenter som ble eksponert i lekkasjen, beskrives Mythos som et "step change" i AI-kapabiliteter — langt kraftigere enn noen av de eksisterende Opus-modellene. Den er spesielt sterk på koding og sikkerhetsevaluering: den kan identifisere sårbarheter, analysere ondsinnet kode og resonnere gjennom komplekse sikkerhetsscenarioer med usett presisjon.
Problemet er at dette også gjør den ekstremt farlig i feil hender.
Anthropic skal ifølge rapporter ha advart høytstående myndigheter i USA om at Mythos kan gjøre storstilte cyberangrep vesentlig mer sannsynlige. Autonome AI-agenter med Mythos-kapabiliteter kan potensielt gjennomføre sofistikerte angrep uten menneskelig innblanding.
Selskapet tester nå modellen i en svært begrenset krets — primært forsvarsorienterte sikkerhetsteam som får tidlig tilgang for å herde sine systemer. Det er en bevisst strategi: la forsvarerne komme et skritt foran angriperne.
Mythos er beregningskrevende og kostbar å kjøre, noe som sannsynligvis vil prege den eventuelle lanseringen. Men AI-sikkerhetsfeltet er ikke i tvil: dette er en modell som endrer spillereglene, på godt og vondt.
For norske virksomheter med sensitive data er det grunn til å skjerpe blikket på det som kommer.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.