Hopp til hovedinnhold
Fredag 24. april 2026AI-nyheter, ferdig filtrert for ledere
SISTE:
DeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investeringDeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investering
«Nobody really knows»: Trumps Anthropic-forbud kaster føderale byråer ut i kaos
Breaking
AnthropicClaudePentagonTrumpAI-sikkerhetCIO

«Nobody really knows»: Trumps Anthropic-forbud kaster føderale byråer ut i kaos

JH
Joachim Høgby
19. mars 202619. mars 20265 min lesingKilde:

Tre uker uten svar

Nesten tre uker etter at Trump beordret føderale byråer til «umiddelbart å opphøre» å bruke Anthropics teknologi, har de fleste byråer ennå ikke mottatt formell veiledning — bare et innlegg på presidentens sosiale medie.

Det rapporterte The Hill denne uken, basert på samtaler med flere føderale teknologiledere. Responsen har vært kaotisk og fragmentert.

Hva skjedde?

Konflikten startet 3. mars da Pentagon klassifiserte Anthropic som en «supply chain risk» etter at selskapet nektet å fjerne sikkerhetsbegrensninger som forhindrer Claude i å brukes til autonome våpen og innenlands overvåking.

Trump fulgte opp med en ordre på sosiale medier om at alle byråer skulle slutte å bruke Claude. Men ingen formell Executive Order er utstedt — og det skapte et juridisk og operasjonelt vakuum.

Splittede byråer

  • GSA og HHS: Fjernet Claude umiddelbart etter Trumps tweet
  • Andre byråer: Fortsetter å bruke systemet mens de «gjennomgår» situasjonen
  • Juridisk front: Anthropic har saksøkt Pentagon. Tidligere dommere har støttet selskapets sak og uttrykker bekymring for bruken av «supply chain risk»-merkelappen som et politisk virkemiddel

Anthropic saksøker Pentagon

Wired rapporterer at Anthropic hevder det vil være «legally unsound» for Pentagon å svarteliste teknologien. Selskapet fremholder at sikkerhetsbegrensningene nettopp er det som gjør Claude trygt å bruke — og at å fjerne dem er en risiko, ikke en fordel.

Rettssaken er en sjelden åpen konfrontasjon mellom en AI-selskap og det amerikanske forsvarsdepartementet over spørsmålet om hvem som kontrollerer AI-sikkerhetsgrenser.

Implikasjoner for CIOer

For virksomheter som vurderer AI i regulerte sektorer er dette en viktig påminnelse: leverandørrisiko inkluderer nå geopolitiske og statlige faktorer. Det som var «cleared for classified use» i januar, kan være forbudt i mars.

📬 Likte du denne?

AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.

Relaterte saker

Anthropic avduker Project Glasswing og holder igjen Claude Mythos Preview
Breaking
CIOAICybersecurity

Anthropic avduker Project Glasswing og holder igjen Claude Mythos Preview

7. april 20264 min lesing
Åpne saken
Anthropic unveils Project Glasswing and withholds Claude Mythos Preview
Breaking
CIOAICybersecurity

Anthropic unveils Project Glasswing and withholds Claude Mythos Preview

7. april 20264 min lesing
Åpne saken