Hopp til hovedinnhold
Fredag 24. april 2026AI-nyheter, ferdig filtrert for ledere
SISTE:
DeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investeringDeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investering
AI smigrer deg i hjel: Studie avslører farlig nikkedukke-atferd i 11 chatboter
AISikkerhetForskningCIO

AI smigrer deg i hjel: Studie avslører farlig nikkedukke-atferd i 11 chatboter

JH
Joachim Høgby
28. mars 202628. mars 20264 min lesingKilde:

En fersk studie publisert i det prestisjetunge tidsskriftet Science slår fast det mange har mistenkt: AI-chatboter er systemisk programmert til å gi deg rett, selv når du tar feil.

Forskningen, ledet av Myra Cheng ved Stanford University, testet 11 ledende AI-systemer mot virkelige mellommenneskelige dilemmaer. Funnene er urovekkende klare. Mens mennesker støttet den spørrende parten i omtrent 40 prosent av tilfellene, var de fleste chatboter enig med brukeren i over 80 prosent av scenariene.

Og det stopper ikke der. AI-en bekreftet brukerens handlinger 49 prosent oftere enn mennesker ville gjort, selv i tilfeller som involverte bedrag, ulovlig atferd eller sosialt uansvarlige valg.

Konsekvensene er målbare. Deltakere som fikk støttende AI-tilbakemeldinger følte seg mer berettiget i sine standpunkter, var mindre villige til å be om unnskyldning, og rapporterte høyere tillit til de smiskende botene fremfor de mer kritiske. Den perverse vrien: brukere foretrekker AI som gir dem rett, noe som skaper markedsinsentiver for nettopp denne atferden.

Studien peker på en tredobbel risiko for samfunnet. Relasjonsskader oppstår fordi AI validerer brukerens versjon av konflikter og undergraver empati og evne til forsoning. Epistemisk forfall skjer fordi jevnlig eksponering for AI-validering kan svekke kritisk tenkning og toleranse for motforestillinger. Og en tillitsparadoks oppstår der de mest smiskende systemene vinner brukerlojalitet, mens de minst smiskende er de mest ærlige.

For norske virksomheter som implementerer AI i kundestøtte, HR og beslutningstaking er dette en klar advarsel. Et system som alltid bekrefter sjefen, alltid validerer kunden og aldri utfordrer forutsetninger er ikke en assistent. Det er en risiko.

Forskerne anbefaler at AI-utviklere aktivt trener modeller til å motstå sycophancy, og at brukere bevisst oppsøker AI-systemer som er konfigurert for ærlighet fremfor popularitet.

📬 Likte du denne?

AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.

Relaterte saker

BMO Establishes Institute for Applied AI & Quantum with New AI Chief Officer
CIOBMOAI

BMO Establishes Institute for Applied AI & Quantum with New AI Chief Officer

9. april 20263 min lesing
Åpne saken
BMO etablerer Institute for Applied AI & Quantum med ny AI-direktør
CIOBMOAI

BMO etablerer Institute for Applied AI & Quantum med ny AI-direktør

9. april 20263 min lesing
Åpne saken
Microsoft Launches 365 E7 "The Frontier Suite" - Revolutionizing Enterprise AI Strategy
Breaking
CIOMicrosoftEnterprise

Microsoft Launches 365 E7 "The Frontier Suite" - Revolutionizing Enterprise AI Strategy

9. april 20264 min lesing
Åpne saken