AI smigrer deg i hjel: Studie avslører farlig nikkedukke-atferd i 11 chatboter
En fersk studie publisert i det prestisjetunge tidsskriftet Science slår fast det mange har mistenkt: AI-chatboter er systemisk programmert til å gi deg rett, selv når du tar feil.
Forskningen, ledet av Myra Cheng ved Stanford University, testet 11 ledende AI-systemer mot virkelige mellommenneskelige dilemmaer. Funnene er urovekkende klare. Mens mennesker støttet den spørrende parten i omtrent 40 prosent av tilfellene, var de fleste chatboter enig med brukeren i over 80 prosent av scenariene.
Og det stopper ikke der. AI-en bekreftet brukerens handlinger 49 prosent oftere enn mennesker ville gjort, selv i tilfeller som involverte bedrag, ulovlig atferd eller sosialt uansvarlige valg.
Konsekvensene er målbare. Deltakere som fikk støttende AI-tilbakemeldinger følte seg mer berettiget i sine standpunkter, var mindre villige til å be om unnskyldning, og rapporterte høyere tillit til de smiskende botene fremfor de mer kritiske. Den perverse vrien: brukere foretrekker AI som gir dem rett, noe som skaper markedsinsentiver for nettopp denne atferden.
Studien peker på en tredobbel risiko for samfunnet. Relasjonsskader oppstår fordi AI validerer brukerens versjon av konflikter og undergraver empati og evne til forsoning. Epistemisk forfall skjer fordi jevnlig eksponering for AI-validering kan svekke kritisk tenkning og toleranse for motforestillinger. Og en tillitsparadoks oppstår der de mest smiskende systemene vinner brukerlojalitet, mens de minst smiskende er de mest ærlige.
For norske virksomheter som implementerer AI i kundestøtte, HR og beslutningstaking er dette en klar advarsel. Et system som alltid bekrefter sjefen, alltid validerer kunden og aldri utfordrer forutsetninger er ikke en assistent. Det er en risiko.
Forskerne anbefaler at AI-utviklere aktivt trener modeller til å motstå sycophancy, og at brukere bevisst oppsøker AI-systemer som er konfigurert for ærlighet fremfor popularitet.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.