Hopp til hovedinnhold
Fredag 24. april 2026AI-nyheter, ferdig filtrert for ledere
SISTE:
DeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investeringDeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investering
Mistral Small 4: Én modell erstatter tre — åpen, multimodal og rask
MistralÅpen kildekodeLLMMoEAI-modeller

Mistral Small 4: Én modell erstatter tre — åpen, multimodal og rask

JH
Joachim Høgby
26. mars 202626. mars 20264 min lesingKilde:

Mistral AI har sluppet Mistral Small 4, en 119 milliarder parametere stor modell med Mixture-of-Experts-arkitektur som samler funksjonaliteten fra tre tidligere spesialiserte modeller i én pakke.

Modellen er frigjort under Apache 2.0-lisens og representerer et markant steg for åpne språkmodeller. Den kombinerer resonneringsevnen fra Magistral, bildekjennelse fra Pixtral og agentisk koding fra Devstral. Det betyr at utviklere slipper å administrere separate modeller for ulike oppgaver.

Med 119 milliarder totale parametere aktiveres kun rundt 6 milliarder per token takket være MoE-arkitekturen med 128 eksperter. Det gjør at modellen oppfører seg svært effektivt under inference. Sammenlignet med Mistral Small 3 leverer den 40 prosent raskere sluttid og håndterer tre ganger så mange forespørsler per sekund i gjennomstrømmingsoptimaliserte oppsett.

Kontekstvinduet er på 256 000 tokens, noe som åpner for analyse av lange dokumenter og komplekse samtaleforløp. Modellen støtter inndata som tekst og bilder nativt.

Mistral Small 4 kan brukes via Mistral sitt eget API, Hugging Face, Ollama og vLLM. Den er også tilgjengelig på NVIDIA Build, og Mistral er nå med i NVIDIA Nemotron Coalition for å fremme åpne frontier-modeller.

Ytelsesmessig hevder Mistral at Small 4 er konkurransedyktig mot Claude Haiku 3.5 og Qwen 2.5 på koding og matematikk, og at output er betydelig kortere og mer effektiv. Det gjør den til et attraktivt valg for bedrifter som ønsker lokal eller API-basert kjøring med høy kapasitet og lav latens.

📬 Likte du denne?

AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.