Hopp til hovedinnhold
Fredag 24. april 2026AI-nyheter, ferdig filtrert for ledere
SISTE:
DeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investeringDeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investering
Pentagon forbyr Claude – Hegseth kaller Anthropic en sikkerhetsrisiko
Breaking
CIOAnthropicPentagonAI-sikkerhetCompliance

Pentagon forbyr Claude – Hegseth kaller Anthropic en sikkerhetsrisiko

JH
Joachim Høgby
20. mars 202620. mars 20264 min lesingKilde:

Hegseth erklærer Anthropic som forsyningskjedefare

Forsvarsminister Pete Hegseth har utpekt Anthropic som en «supply-chain risk» for det amerikanske forsvaret og forbudt bruk av selskapets Claude-modell innen Pentagon – etter at kontraktsforhandlinger brøt sammen over AI-etiske prinsipper.

Det er en dramatisk helomvending i et samarbeid som bare for måneder siden var beskrevet som det tetteste mellom et AI-selskap og den amerikanske regjeringen.

Bakgrunn: Claude på klassifisert nivå – og kollaps

I over ett år var Claude den foretrukne AI-modellen i det amerikanske forsvaret – det første frontier-systemet klarert for klassifisert bruk. Modellen spilte ifølge Time Magazine en rolle i pågripelsen av Venezuelas president Nicolás Maduro i januar 2026.

Men det skar seg da Pentagon ønsket å bruke Claude uten de etiske brukesbegrensningene Anthropic opererer med. CEO Dario Amodei nektet å fjerne dem. Hegseth utpekte selskapet som risiko 3. mars.

Militæransatte vil beholde Claude

Reuters melder at militæransatte som bruker Claude til daglig klassifisert arbeid er frustrerte over forbudet. Verktøyet er ifølge disse kildene vanskelig å erstatte på kort sikt – noe som gjør Hegseths forbud mer symbolsk enn operativt foreløpig.

Tech-industrien samler seg bak Anthropic

Silicon Valley-kretser har i stor grad støttet Anthropic. LA Times melder at Pentagons forsøk på å presse selskapet har utløst refleksjon rundt hvilke etiske krav AI-selskaper kan og bør holde fast på – også overfor myndigheter.

Hva dette betyr for CIOer

Dette er en viktig case for alle som vurderer enterprise AI-kontrakter: Leverandørenes etiske retningslinjer er ikke forhandlingsbar fine print. Anthropic er villig til å miste en av verdens største kontrakter framfor å fjerne sine AI-sikkerhetsprinsipper.

For CIOer: Kjenn leverandørens etiske grenser. De kan aktiveres – med konsekvenser for deres kontrakter med dere også.

📬 Likte du denne?

AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.

Relaterte saker

Meta velger AWS Graviton for agentisk AI i stor skala
CIOInfrastructure

Meta velger AWS Graviton for agentisk AI i stor skala

Akkurat nå4 min lesing
Åpne saken
Meta taps AWS Graviton to scale agentic AI
CIOInfrastructure

Meta taps AWS Graviton to scale agentic AI

Akkurat nå4 min lesing
Åpne saken
DeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitet
Breaking
CIOOpen Source

DeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitet

Akkurat nå4 min lesing
Åpne saken