Google skal ha åpnet AI-modeller for klassifisert Pentagon-bruk
Google skal ha inngått en klassifisert avtale som åpner selskapets AI-modeller for bruk i USAs forsvarsdepartement.
Fakta først: The Verge omtaler en rapport fra The Information om at avtalen gir Department of Defense tilgang til Googles AI-systemer for “any lawful government purpose”. Google sier i en uttalelse at selskapet er del av et bredt konsortium av AI-labber, teknologi- og skyleverandører som støtter nasjonal sikkerhet, og at AI ikke bør brukes til innenlandsk masseovervåking eller autonome våpen uten passende menneskelig kontroll.
Det er fortsatt en rapportert, klassifisert avtale, ikke en fullstendig offentlig kontrakt. Derfor må detaljene behandles med varsomhet. Men saken er strategisk viktig fordi den viser en tydelig retning: frontier-modeller flyttes fra produktivitetsverktøy og kundeservice inn i statlige sikkerhetsmiljøer med høyere krav til kontroll, logging og ansvar.
For norske CIO-er og styrer er lederkonsekvensen ikke Pentagon i seg selv. Den er at leverandørens policy, kontraktsvilkår og faktiske bruksgrenser blir en del av risikobildet. Hvis en modell kan brukes i sensitive statlige arbeidsflyter i USA, vil samme teknologiplattform også bli vurdert for politi, forsvar, beredskap, helse og kritisk infrastruktur i Europa. Da holder det ikke å spørre om modellen er “god”. Man må spørre hvem som kan endre sikkerhetsfiltre, hvilke data som logges, hvilken jurisdiksjon som gjelder, og om kunden kan dokumentere formål og menneskelig kontroll.
Saken skjer også i en bredere konkurranse. OpenAI og xAI er ifølge omtalen allerede inne i klassifiserte amerikanske AI-avtaler, mens Anthropic skal ha havnet på utsiden etter uenighet om våpen- og overvåkingsrelaterte guardrails. Det gjør AI-leverandørvalg til mer enn funksjonalitet og pris. Det handler om verdikjede, geopolitikk, compliance og om leverandørens sikkerhetsposisjon passer virksomhetens mandat.
Vurderingen: Norske virksomheter bør bruke dette som en kontrollsjekk for egen AI-governance. Oppdater leverandørvurderinger med spørsmål om offentlige og militære kontrakter, modellpolicy, audit-logger, dataregion, tilgangsstyring og mulighet for uavhengig kontroll. For offentlige og regulerte virksomheter bør kravene inn i anskaffelse og DPIA før sensitive AI-bruksområder skaleres.
Rådet er praktisk: ikke stans all bruk av store modeller, men del bruken i risikoklasser. Lavrisiko produktivitet kan ha én godkjenningsløype. Beslutningsstøtte i sikkerhet, helse, HR eller kritisk infrastruktur må ha strengere kontrakter, logging, evalueringskrav og menneskelig ansvar. Denne saken viser hvorfor den forskjellen ikke lenger er teoretisk.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.