Anthropic ansetter ekspert på kjemiske våpen etter Pentagon-strid
Etter bruddet med Pentagon over ukontrollert AI-bruk, tar Anthropic et uventet skritt: selskapet er nå på jakt etter en ekspert på kjemiske våpen og eksplosiver.
Misforstå det ikke. Anthropic skal ikke bygge bomber. Det er snarere omvendt. Selskapet vil ansette noen som kan hjelpe dem med å formulere en klar politikk for hva Claude kan og ikke kan hjelpe med, når det gjelder farlig informasjon om kjemikalier og eksplosiver.
Stillingsannonsen beskriver rollen som å jobbe rundt "hvordan AI-systemer håndterer sensitiv kjemisk informasjon og eksplosivrelatert informasjon," i tett samarbeid med AI-sikkerhetsforskere.
Bakgrunnen er et turbulent halvår. I mars 2026 kom det frem at Claude er integrert i Palantirs Maven-system, som brukes av det amerikanske militæret til målutvelgelse og andre operasjoner i Iran. Anthropic ville ikke at systemet skulle brukes uten begrensninger, noe som utløste et åpent brudd med Pentagon. Nå skal OpenAIs modeller gradvis erstatte Claude på klassifiserte militærnettverk.
Men å forlate det militære markedet betyr ikke at Anthropic unngår vanskelige avveininger. Hvis Claude er tilgjengelig for millioner av brukere, kreves det klare retningslinjer for hva modellen kan hjelpe med. Å hente inn fagekspertise er et fornuftig grep for et selskap som reklamerer med å sette AI-sikkerhet øverst.
Claude er fortsatt i bruk hos Pentagon for pågående operasjoner. Splittelsen mellom Anthropics offisielle posisjon og den faktiske bruken av teknologien understreker hvor krevende det er å navigere mellom sikkerhetsambisjon og kommersiell virkelighet.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.