Hopp til hovedinnhold
 AI-nyheter, ferdig filtrert for ledere
SISTE:

Anthropic åpner Claude Security for Enterprise-kunder • Britisk AISI: GPT-5.5 når Mythos-nivå i cybertester • OpenAI åpner GPT-5.5-Cyber kun for utvalgte forsvarere

White House stopper bredere tilgang til Anthropic Mythos
Breaking
CIOCEOStyreAI StrategySecurity

White House stopper bredere tilgang til Anthropic Mythos

JH
Joachim Høgby
30. april 202630. april 20263 min lesingKilde: The Wall Street Journal

White House motsetter seg Anthropics plan om å utvide tilgangen til AI-modellen Mythos.

Ifølge The Wall Street Journal ville Anthropic gi rundt 70 flere selskaper og organisasjoner tilgang til Mythos. Det ville løftet totalen til omtrent 120 aktører. Administrasjonen skal ha sagt nei av sikkerhetshensyn, og én bekymring var at flere kunder kunne spise av den kapasiteten myndighetene selv ønsker å bruke. Bloomberg omtaler samme motstand, basert på en administrasjonskilde.

Det nye her er ikke at Mythos er sensitiv. Det har vært kjent gjennom striden mellom Anthropic, Pentagon og White House. Det nye er at myndighetene nå griper direkte inn i distribusjonen: hvem som får bruke modellen, hvor bredt den kan rulles ut, og om leverandøren har nok compute til både kommersiell og statlig bruk.

Fakta: Saken bygger på kilder hos WSJ og Bloomberg, ikke på en offentlig Anthropic-lansering. Det betyr at detaljene bør leses som rapportert informasjon. Retningen er likevel tydelig: frontier-modeller med cyberkapasiteter blir ikke bare et produktvalg, men et spørsmål om nasjonal sikkerhet, kapasitetsprioritering og regulatorisk kontroll.

For norske CIO-er og styrer er konsekvensen praktisk. En modell som er tilgjengelig i dag kan få bruksbegrensninger i morgen. En leverandør kan bli trukket mellom kommersielle kunder, forsvarskunder og politiske krav. Og sikkerhetsvurderinger kan skje utenfor den vanlige innkjøpsprosessen.

Det bør inn i AI-governance nå:

  • Et formelt register over hvilke modeller som brukes til kode, sikkerhet, dataanalyse og operasjonelle beslutninger.
  • En tydelig klassifisering av høy-risiko modeller, særlig de som kan automatisere cyberarbeid eller endre produksjonssystemer.
  • Exit-planer for kritiske arbeidsflyter dersom en modell, region eller API-tilgang blir begrenset.
  • Leverandørkrav om logging, databehandling, regionstøtte, kapasitetsforpliktelser og varslingsplikt ved regulatoriske endringer.
  • En beslutningsmodell som skiller mellom produktivitetsverktøy og modeller som bør behandles som sikkerhetskritisk infrastruktur.

Vurdering: Dette er et tidlig varsel om at AI-tilgang kan bli like politisert som skyregioner, kryptografi og eksportkontroll. Norske virksomheter trenger ikke stoppe bruken av avanserte modeller. Men de bør slutte å behandle modellvalg som et rent utvikler- eller innkjøpsspørsmål. For de mest kraftige modellene må risikoeier sitte hos ledelsen, ikke bare hos et team som har funnet en god API.

📬 Likte du denne?

AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.