Musk: xAI brukte delvis OpenAI-modeller til å trene Grok
Elon Musk sa i retten at xAI delvis har brukt OpenAI-modeller til å forbedre egne modeller.
Fakta: The Verge rapporterte 30. april 2026 fra en føderal rettssal i California at Musk ble spurt om xAI hadde destillert OpenAI-teknologi. Etter først å ha svart at «generelt gjør alle AI-selskaper» dette, svarte han «partly». WIRED rapporterte den samme utvekslingen fra kryssforhøret og skrev at Musk argumenterte for at det er standard praksis å bruke andre AI-systemer til validering.
Modelldestillasjon er ikke ulovlig i seg selv. En større modell kan brukes som lærer for en mindre eller billigere modell. Problemet oppstår når en leverandør bruker konkurrentens tjeneste, API eller output på en måte som bryter vilkår, IP-rettigheter eller sikkerhetsforventninger. OpenAI, Anthropic og Google har allerede pekt på destillasjon som en reell konkurranse- og sikkerhetsrisiko, særlig i debatten rundt kinesiske modeller.
Dette er derfor mer enn Musk-drama. For norske ledere er saken et varsel om at AI-leverandørkjeden blir vanskeligere å attestere. Når en modell kan være trent, validert eller finjustert med output fra en annen modell, holder det ikke å spørre om datasettet er «rent». Man må spørre hva leverandøren faktisk har gjort med andre modell-API-er, syntetiske data, benchmark-data og kundedata.
Vurderingen: CIO og juridisk bør flytte modellproveniens inn i innkjøp og governance. Kontrakter bør kreve at leverandøren kan dokumentere hvilke tredjepartsmodeller som er brukt i trening, evaluering og destillasjon. Det bør også stå klart hvem som bærer risiko hvis en modell senere blir omstridt på grunn av brudd på vilkår eller IP.
For virksomheter som bygger agenter på toppen av eksterne modeller, er rådet konkret: ikke la utviklingsteam bruke konkurrerende modell-output som treningsdata uten policy, logging og juridisk vurdering. Skill mellom validering, prompt-testing, syntetisk datagenerering og faktisk modelltrening. Disse praksisene har ulik risiko.
Saken er foreløpig basert på rettsrapportering, ikke en full teknisk postmortem fra xAI eller OpenAI. Men lederkonsekvensen er klar nok: AI-governance må dekke modellopphav og leverandørens metode, ikke bare personvern og prompt-sikkerhet.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.