Mistral Small 4: Én modell erstatter tre — åpen, multimodal og rask
Mistral AI har sluppet Mistral Small 4, en 119 milliarder parametere stor modell med Mixture-of-Experts-arkitektur som samler funksjonaliteten fra tre tidligere spesialiserte modeller i én pakke.
Modellen er frigjort under Apache 2.0-lisens og representerer et markant steg for åpne språkmodeller. Den kombinerer resonneringsevnen fra Magistral, bildekjennelse fra Pixtral og agentisk koding fra Devstral. Det betyr at utviklere slipper å administrere separate modeller for ulike oppgaver.
Med 119 milliarder totale parametere aktiveres kun rundt 6 milliarder per token takket være MoE-arkitekturen med 128 eksperter. Det gjør at modellen oppfører seg svært effektivt under inference. Sammenlignet med Mistral Small 3 leverer den 40 prosent raskere sluttid og håndterer tre ganger så mange forespørsler per sekund i gjennomstrømmingsoptimaliserte oppsett.
Kontekstvinduet er på 256 000 tokens, noe som åpner for analyse av lange dokumenter og komplekse samtaleforløp. Modellen støtter inndata som tekst og bilder nativt.
Mistral Small 4 kan brukes via Mistral sitt eget API, Hugging Face, Ollama og vLLM. Den er også tilgjengelig på NVIDIA Build, og Mistral er nå med i NVIDIA Nemotron Coalition for å fremme åpne frontier-modeller.
Ytelsesmessig hevder Mistral at Small 4 er konkurransedyktig mot Claude Haiku 3.5 og Qwen 2.5 på koding og matematikk, og at output er betydelig kortere og mer effektiv. Det gjør den til et attraktivt valg for bedrifter som ønsker lokal eller API-basert kjøring med høy kapasitet og lav latens.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.