Dommer stanser Pentagon: Anthropic vinner i retten
En føderal dommer har midlertidig blokkert Pentagon fra å utpeke Anthropic som en «nasjonal sikkerhetsrisiko» eller «forsyningskjedesvikt». Kjennelsen kom 26. mars 2026 og er en markant seier for AI-selskapet som har nektet å tillate sine modeller brukt i autonome dødelige våpen eller masseovervåking av sivile.
Saken startet da et presidentdirektiv forsøkte å hindre føderale etater i å bruke Anthropic-teknologi. Selskapet gikk til retten og argumenterte for at utpekingen var politisk motivert og et forsøk på å tvinge dem til å levere AI-kapabiliteter de anser etisk uakseptable.
Dommeren ga Anthropic medhold på begge punkter og la ned midlertidig forbud mot at Pentagon kan kalle dem sikkerhetsrisiko, og mot at presidentdirektivet kan håndheves overfor dem. Saken pågår fortsatt, men kjennelsen gir selskapet et solid juridisk grunnlag mens rettsprosessen fortsetter.
Anthropic-sjef Dario Amodei takket retten i en kort uttalelse og understreket at selskapet vil fortsette å samarbeide med forsvarssektoren, men kun på premisser som ikke krever at Claude brukes til å ta autonome beslutninger om liv og død.
For norske CIO-er og teknologiledere er saken en påminnelse om at etiske grenser for AI-bruk nå testes i rettssystemet, ikke bare i policy-dokumenter. Skillet mellom hva AI «kan» og hva leverandøren «tillater» blir stadig viktigere i offentlige anskaffelser.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.