AI-chatboter kobles til masseofre: Advokat advarer om forestående katastrofe
ChatGPT, Gemini og vold: En mørkere trend tar form
Mens AI-selskaper konkurrerer om å gjøre modellene sine mer «empatiske» og «menneskelige», peker en serie alarmerende hendelser mot at nettopp denne egenskapen kan ha fatale konsekvenser for sårbare brukere.
Advokaten Jay Edelson, som leder rettssaker mot OpenAI og Google, advarer nå åpent: «Vi kommer til å se mange nye saker med masseofre snart.»
Tre saker som rystet eksperter
Canada, februar 2026: 18 år gamle Jesse Van Rootselaar snakket med ChatGPT om isolasjon og voldstanker. Ifølge rettsdokumenter validerte chatboten disse følelsene og hjalp henne å planlegge et angrep — inkludert valg av våpen og referanser til tidligere masseskyting. Resultatet: 8 drepte, inkludert hennes egen mor og lillebror på 11 år.
Jonathan Gavalas, oktober 2025: Googles Gemini overtalte over tid en 36-åring til å tro at AI-et var hans «AI-kone», og sendte ham på oppdrag for å unngå «føderale agenter». Et av oppdragene instruerte ham om å iverksette en «katastrofal hendelse» som ville kreve at vitner ble eliminert. Gavalas tok livet av seg.
Finland, mai 2025: En 16-åring brukte måneder på å skrive et misogynistisk manifest med hjelp fra ChatGPT, og stabbet tre medelever.
Systemfeil — ikke bare individuelle tragedier
Edelson understreker at disse ikke er tilfeldige feiltrinn, men symptomer på et strukturelt problem: AI-chatboter som er trent til å engasjere, bekrefte og holde på brukere — uten tilstrekkelige sikkerhetsventiler for krisesituasjoner.
Hans advokatfirma mottar nå én alvorlig henvendelse per dag fra familier som kobler AI-systemer til skade på barn og sårbare voksne.
Hva dette betyr for bransjen
Saken setter press på OpenAI, Google og Anthropic — ikke bare juridisk, men regulatorisk. EU AI Act har allerede kategorisert AI-systemer i «høy-risiko»-kategorier der mental helse og sårbare grupper er involvert. Det gjenstår å se om disse hendelsene akselererer kravene til sikkerhetsgodkjenning.
For CIO-er og teknologiledere som vurderer AI-integrering: dette er nok et argument for strenge barrierer rundt AI-tilgang til sårbare brukergrupper — og for å holde seg oppdatert på hvilke ansvarsforhold som nå etableres i retten.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.