Kinesiske Qwen slår Meta Llama i produksjon – Llama 4 nesten ingen bruker
Alibabas Qwen overtar tronen fra Meta
RunPods ferske «State of AI 2026»-rapport avslører et markant skifte i open-source AI-landskapet: Alibabas Qwen-modeller har nå passert Meta Llama som det mest deployede open-weight large language model på plattformen.
Det er en overraskende utvikling for mange, gitt Metas massive markedsføring av Llama-serien og de enorme ressursene selskapet har investert i open-source AI.
Llama 4 – en fiasko i produksjon?
Tallene er brutale for Meta: Llama 4, som ble lansert med stor fanfare tidligere i år, viser «nær null adopsjon» i reell produksjon. Brukerne holder fast på Llama 3.x-grenen, og er tilsynelatende ikke overbevist om at Llama 4 gir nok verdi til å migrere.
Brennen Smith, CTO i RunPod, oppsummerer det slik: «Markedet er pragmatisk og optimaliserer på pris/ytelse og inferenslatens.»
Qwens fremvekst
Qwen, Alibabas open-weight modellserie, har tatt markedsandeler raskt. Modellene scorer høyt på benchmarks, støtter mange språk inkludert norsk og asiatiske språk, og er kjent for god ytelse til lav ressursbruk.
Fra et bedriftsperspektiv er dette interessant: Qwen-modeller er tilgjengelige under Apache 2.0-lisens, noe som betyr fri kommersiell bruk uten royalties.
Infrastruktur-observasjoner
RunPod-rapporten viser også at vLLM og ComfyUI dominerer AI-infrastrukturen for selvhostede modeller. Dette bekrefter trenden mot mer modne, produksjonsklare rammeverk fremfor eksperimentelle oppsett.
Hva betyr dette for CIOer?
For virksomheter som vurderer open-source AI er dette et signal om å ikke automatisk velge «det store navnet». Qwen tilbyr:
- Sterk ytelse på kode- og resonneringsoppgaver
- Multimodal støtte
- Aktiv utvikling med hyppige oppdateringer
- Bred deployment-støtte (Ollama, vLLM, Hugging Face)
Metas Llama er ikke ferdig – men konkurransen er hardere enn noen gang.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.