Hopp til hovedinnhold
Fredag 24. april 2026AI-nyheter, ferdig filtrert for ledere
SISTE:
DeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investeringDeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investering
Anthropic ansetter eksplosivekspert for å forhindre katastrofalt AI-misbruk
AnthropicAI-sikkerhetCIO

Anthropic ansetter eksplosivekspert for å forhindre katastrofalt AI-misbruk

JH
Joachim Høgby
18. mars 202618. mars 20263 min lesingKilde:

Anthropic, selskapet bak Claude-modellene, har lagt ut en stilling etter en ekspert på kjemiske våpen og sprengstoff. Jobben er utformet for å hjelpe selskapet å forhindre det de kaller «katastrofalt misbruk» av sine AI-systemer.

Ifølge stillingsutlysningen skal den nye eksperten samarbeide tett med Anthropics sikkerhetsteam og «takle kritiske problemer knyttet til å forhindre katastrofalt misbruk». Dette inkluderer å identifisere måter Claude kan brukes til å hjelpe aktører med å lage farlige substanser eller sprengstoff – og deretter bygge sikringsmekanismer mot dette.

Nyhetsbyrået BBC og Semafor, som begge rapporterte om ansettelsen, påpeker at dette er en del av en bredere trend: Store AI-selskaper bygger nå interne team med ekspertise fra forsvars- og sikkerhetssektoren.

Kontekst: Anthropic og Pentagon

Historien kommer i kjølvannet av en turbulent periode for Anthropic. I januar 2026 ble det avslørt at Claude hadde blitt brukt i en operasjon som bidro til pågripelsen av Venezuelas president Nicolás Maduro. Etter det begynte forholdet mellom Anthropic og Pentagon å rakne, og 27. februar kunngjorde Trump-administrasjonen endringer som påvirket samarbeidet.

Anthropic sitter nå i krysspresset mellom å levere kraftige AI-systemer til myndigheter og militær, og å sikre at de samme systemene ikke kan brukes til masseødeleggelsesvåpen.

Bransjens nye norm

Det er ikke bare Anthropic som tar dette steget. Ifølge kilder kjent med bransjen er det nå et voksende marked for eksperter med bakgrunn i forsvar, sprengstoff og farlige materialer – folk som kan hjelpe AI-selskaper med å forstå akkurat hva de trenger å sikre seg mot.

Dette signaliserer en modning i AI-sikkerhetsmiljøet: Fra rene tekstbaserte sikkerhetstiltak til dyp fagekspertise fra den fysiske verdenen.

📬 Likte du denne?

AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.

Relaterte saker

Anthropic avduker Project Glasswing og holder igjen Claude Mythos Preview
Breaking
CIOAICybersecurity

Anthropic avduker Project Glasswing og holder igjen Claude Mythos Preview

7. april 20264 min lesing
Åpne saken
Anthropic unveils Project Glasswing and withholds Claude Mythos Preview
Breaking
CIOAICybersecurity

Anthropic unveils Project Glasswing and withholds Claude Mythos Preview

7. april 20264 min lesing
Åpne saken