OpenAI slipper Privacy Filter som åpen modell for PII-redigering
OpenAI har lansert Privacy Filter, en åpen modell for å oppdage og maskere personidentifiserbar informasjon i tekst. Selskapet beskriver den som infrastruktur for mer robuste og personvernvennlige AI-systemer, og legger vekt på at modellen kan kjøres lokalt slik at rådata ikke trenger å forlate maskinen.
Hva er nytt
Privacy Filter er en liten token-klassifiseringsmodell med 1,5 milliarder parametere totalt og 50 millioner aktive parametere. Den støtter opptil 128 000 tokens kontekst og kan merke åtte typer sensitiv informasjon, blant annet navn, adresser, e-post, telefonnumre, kontonumre og hemmeligheter som API-nøkler og passord. OpenAI oppgir en F1-score på 96 prosent på PII-Masking-300k-benchmarken, og publiserer modellen under Apache 2.0-lisens på Hugging Face og GitHub.
Hvorfor dette betyr noe
Dette er mer interessant enn det først kan se ut som. Mange virksomheter vil bruke generativ AI i logger, søk, indeksering og interne arbeidsflyter, men stopper opp på grunn av personvern og datarisiko. En liten modell som kan kjøre lokalt og rydde bort PII før data går videre i pipelinen, kan bli en praktisk byggekloss for enterprise AI. Det styrker også OpenAIs posisjon i sikkerhets- og infrastrukturdebatten, ikke bare i modellkappløpet.
Kilde og datovalidering
Den opprinnelige kilden er OpenAIs egen forskningspost «Introducing OpenAI Privacy Filter», publisert 22. april 2026. OpenAI peker samme dag også til de offisielle modellutgivelsene på Hugging Face og GitHub. Datoen er offisiell og innenfor 48-timerskravet, så saken kvalifiserer som fersk.
Kilde: https://openai.com/index/introducing-openai-privacy-filter/
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.