Meta erstatter menneskelige innholdsmoderatorers med AI — fanger dobbelt så mye
Menneskene ut, robotene inn
Meta kunngjorde torsdag at selskapet ruller ut mer avanserte AI-systemer for innholdshåndhevelse på tvers av Facebook og Instagram, og at det vil kutte ned på bruken av tredjepartsleverandører som i dag ansetter mennesker for denne jobben.
Hva gjør AI-systemene?
De nye AI-systemene er satt til å oppdage og fjerne innhold knyttet til:
- Terrorisme og voldelig ekstremisme
- Seksuell utnyttelse av barn (CSAM)
- Narkotikahandel
- Svindel og svindelangrep
Meta sier AI-systemene vil ta over oppgaver som er «bedre egnet for teknologi», som repetitiv gjennomgang av grafisk innhold eller områder der fiendtlige aktører konstant endrer taktikk.
Imponerende tall
Tidlige tester viser at AI-systemene:
- Oppdager dobbelt så mye seksuelt innhold som menneskelige gjennomgangsteam
- Reduserer feilraten med over 60%
- Identifiserer og forhindrer rundt 5.000 svindelangrep per dag
Hva med menneskene?
Meta understreker at mennesker fortsatt vil spille en nøkkelrolle – spesielt for de mest kritiske beslutningene, som anker av kontodeaktivering eller anmeldelser til politiet. «Eksperter vil designe, trene, overvåke og evaluere AI-systemene», skriver selskapet i et blogginnlegg.
Men realiteten er klar: Storskala menneskelig innholdsmoderasjon er på vei ut. Meta reduserer aktivt avhengigheten av tredjeparts leverandører.
Bredere kontekst
Trekket kommer etter at Meta har liberalisert sine innholdsregler og avsluttet sitt faktasjekkprogram i USA. AI-drevet moderasjon gir Meta mer kontroll og lavere kostnad – men reiser spørsmål om ansvarlighet og om AI-systemene kan håndtere nyanser og kulturell kontekst like godt som mennesker.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.