OpenAI lanserer «Safety Bug Bounty»: Betaler forskere for å avsløre AI-misbruk
OpenAI kunngjorde 26. mars 2026 et nytt program kalt Safety Bug Bounty. Programmet inviterer sikkerhetsforskere til å identifisere og rapportere måter AI-systemene kan misbrukes på, og belønner dem med penger for funnene.
Det nye programmet er et tillegg til det eksisterende Security Bug Bounty-programmet, som belønner klassiske sikkerhetsfeil i infrastruktur og kode. Safety-varianten retter seg mot selve AI-atferden: Kan modellen manipuleres til å omgå sikkerhetsfiltre? Kan den utnyttes til automatisert svindel, desinformasjon eller skadevare?
OpenAI oppgir at programmet er en del av en bredere strategi for ansvarlig AI-utvikling. Selskapet ønsker å involvere det eksterne forskningsmiljøet aktivt, fremfor å overlate sikkerhetsvurderingen til interne team alene.
Tilbudet kommer i en periode der regulatorer og lovgivere verden over stiller stadig høyere krav til dokumentasjon av AI-sikkerhet. For selskaper som bruker OpenAI-produkter i kritiske forretningsprosesser, sender programmet et signal om at leverandøren tar sikkerhetsrisiko på alvor og arbeider systematisk for å kartlegge dem.
Parallelt rapporterer OpenAI om at planer for et erotisk AI-chatbot-produkt er lagt på is på ubestemt tid, etter internt press og bekymringer knyttet til omdømme.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.
Relaterte saker
OpenAI lanserer GPT-5.5 for ChatGPT og Codex
OpenAI ruller ut GPT-5.5 til ChatGPT og Codex med tydelig fokus på agentisk arbeid, verktøybruk og høyere kodekvalitet.