Hopp til hovedinnhold
Fredag 24. april 2026AI-nyheter, ferdig filtrert for ledere
SISTE:
DeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investeringDeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investering
Pentagon svarer Anthropic: Claude utgjør nasjonal sikkerhetsrisiko
Breaking
CIOAnthropicPentagonSikkerhetRegulering

Pentagon svarer Anthropic: Claude utgjør nasjonal sikkerhetsrisiko

JH
Joachim Høgby
18. mars 202618. mars 20264 min lesingKilde:

Forholdet mellom Anthropic og det amerikanske forsvarsdepartementet har eskalert dramatisk. Pentagon har nå levert et offisielt tilsvar til Anthropics søksmål der selskapet utfordret sin klassifisering som «supply chain risk».

Bakgrunn

Anthropic saksøkte DoD tidligere i mars 2026 etter at selskapet ble merket som en forsyningskjederisiko. Dette kom i kjølvannet av at Claude-modellen hadde vært dypt integrert i klassifiserte amerikanske militæroperasjoner – inkludert operasjoner i Venezuela og det pågående US-Israel-Iran-konflikten.

Pentagons argumentasjon

I den nye rettsinnleveringen hevder Department of Defense at Anthropic – dersom selskapets interne etiske grenser (såkalte «red lines») ble brutt – potensielt kunne «forsøke å deaktivere teknologien sin eller endre atferden til modellen, enten før eller under pågående krigsoperasjoner».

Pentagon karakteriserer dette som «en uakseptabel risiko for nasjonal sikkerhet».

En teknologisk og etisk veikryss

Saken belyser en fundamental spenning i moderne AI: Selskaper som Anthropic bygger inn etiske begrensninger i sine modeller som en kjerneprinsipp, men for militære kunder kan disse grensene fremstå som en sikkerhetsrisiko.

Anthropic hevder på sin side at selskapets etiske retningslinjer er en styrke, ikke en svakhet – og at klassifiseringen som forsyningskjederisiko er uberettiget.

Hva skjer videre?

Saken fortsetter nå i rettssystemet. Utfallet kan ha vidtrekkende konsekvenser for AI-selskaper som opererer i forsvarssektoren, og for spørsmålet om hvem som til syvende og sist kontrollerer AI-systemer i militære kontekster.

Kilde: The Verge, CourtListener

📬 Likte du denne?

AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.

Relaterte saker

Meta velger AWS Graviton for agentisk AI i stor skala
CIOInfrastructure

Meta velger AWS Graviton for agentisk AI i stor skala

Akkurat nå4 min lesing
Åpne saken
Meta taps AWS Graviton to scale agentic AI
CIOInfrastructure

Meta taps AWS Graviton to scale agentic AI

Akkurat nå4 min lesing
Åpne saken
DeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitet
Breaking
CIOOpen Source

DeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitet

Akkurat nå4 min lesing
Åpne saken