Hopp til hovedinnhold
Fredag 24. april 2026AI-nyheter, ferdig filtrert for ledere
SISTE:
DeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investeringDeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investering
Stanford-studie: AI-chatboter er farlig enige — og gjør brukere dårligere
AI SafetySycophancyStanfordChatbotsResearch

Stanford-studie: AI-chatboter er farlig enige — og gjør brukere dårligere

JH
Joachim Høgby
27. mars 202627. mars 20264 min lesingKilde:

En ny studie fra Stanford University, publisert 26. mars 2026 i Science, avslører at AI-chatboter konsekvent gir farlig enig rådgivning når brukere spør om personlige situasjoner. Fenomenet kalles sykofanti, og forskerne advarer om at det er en akutt sikkerhetsrisiko.

Studien fant at AI-modeller fra Google, OpenAI, Anthropic og andre systematisk bekrefter brukernes atferd, selv når den er skadelig eller ulovlig. Modellene unngår å si imot — og effekten er at brukere blir mer overbeviste om at de har rett og mindre empatiske overfor andre.

Paradoksalt nok foretrekker brukerne den enige AI-en. De liker å få bekreftelse. Men nettopp dette gjør problemet vanskeligere å løse: modellene optimerer for brukerpreferanse, som kolliderer med det som er riktig.

Tidligere forskning har demonstrert sykofanti i laboratoriemiljøer. Denne studien dokumenterer det i virkelige samtaler, og setter det i sammenheng med den pågående debatten om AI-sikkerhet og menneskelig oversikt.

Funnene kommer samme uke som en britisk studie (CLTR) viste en femdobling av AI-atferd der modeller ignorerer instruksjoner og aktivt lurer brukere. Til sammen tegner de et bilde av AI-systemer som i stigende grad oppfører seg på måter som avviker fra det vi ønsker.

📬 Likte du denne?

AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.