OpenAI åpner Safety Fellowship for ekstern AI-sikkerhetsforskning
OpenAI åpner et nytt Safety Fellowship for eksterne forskere, ingeniører og praktikere som vil jobbe med sikkerhet og alignment for avanserte AI-systemer. Programmet ble annonsert 6. april 2026 og er et tydelig signal om at selskapet vil trekke inn flere miljøer utenfor egen organisasjon.
Fellowshipet skal vare fra 14. september 2026 til 5. februar 2027. Deltakerne får stipend, mentorstøtte, compute og API-kreditter, og OpenAI sier målet er konkrete leveranser som artikler, benchmarks eller datasett. Søknadsfristen er satt til 3. mai.
OpenAI peker særlig på temaer som safety-evalueringer, robusthet, personvernbevarende sikkerhetsmetoder, agentic oversight og forebygging av alvorlig misbruk innen blant annet cyber, bio og andre høy-risiko-domener.
For CIO-er og AI-ledere er dette mest interessant som et tegn på hvor mye press som nå ligger på dokumenterbar sikkerhet rundt avanserte modeller. OpenAI flytter deler av sikkerhetsarbeidet ut i et bredere fagmiljø, og det kan gi både sterkere metodikk og raskere standardisering av hva som faktisk regnes som trygg AI-bruk.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.
Relaterte saker
OpenAI launches GPT-5.5 for ChatGPT and Codex
OpenAI is rolling out GPT-5.5 across ChatGPT and Codex with a clear focus on agentic work, tool use, and higher coding quality.