Anthropic ansetter eksplosivekspert for å forhindre katastrofalt AI-misbruk
Anthropic, selskapet bak Claude-modellene, har lagt ut en stilling etter en ekspert på kjemiske våpen og sprengstoff. Jobben er utformet for å hjelpe selskapet å forhindre det de kaller «katastrofalt misbruk» av sine AI-systemer.
Ifølge stillingsutlysningen skal den nye eksperten samarbeide tett med Anthropics sikkerhetsteam og «takle kritiske problemer knyttet til å forhindre katastrofalt misbruk». Dette inkluderer å identifisere måter Claude kan brukes til å hjelpe aktører med å lage farlige substanser eller sprengstoff – og deretter bygge sikringsmekanismer mot dette.
Nyhetsbyrået BBC og Semafor, som begge rapporterte om ansettelsen, påpeker at dette er en del av en bredere trend: Store AI-selskaper bygger nå interne team med ekspertise fra forsvars- og sikkerhetssektoren.
Kontekst: Anthropic og Pentagon
Historien kommer i kjølvannet av en turbulent periode for Anthropic. I januar 2026 ble det avslørt at Claude hadde blitt brukt i en operasjon som bidro til pågripelsen av Venezuelas president Nicolás Maduro. Etter det begynte forholdet mellom Anthropic og Pentagon å rakne, og 27. februar kunngjorde Trump-administrasjonen endringer som påvirket samarbeidet.
Anthropic sitter nå i krysspresset mellom å levere kraftige AI-systemer til myndigheter og militær, og å sikre at de samme systemene ikke kan brukes til masseødeleggelsesvåpen.
Bransjens nye norm
Det er ikke bare Anthropic som tar dette steget. Ifølge kilder kjent med bransjen er det nå et voksende marked for eksperter med bakgrunn i forsvar, sprengstoff og farlige materialer – folk som kan hjelpe AI-selskaper med å forstå akkurat hva de trenger å sikre seg mot.
Dette signaliserer en modning i AI-sikkerhetsmiljøet: Fra rene tekstbaserte sikkerhetstiltak til dyp fagekspertise fra den fysiske verdenen.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.