DeepSeek kutter V4-Pro-prisen med 75 prosent
DeepSeek har kuttet prisene på sin nye V4-Pro-modell med 75 prosent, ifølge Reuters 27. april 2026.
For norske ledere er dette først og fremst en kost- og arkitektursak. Prisene på avanserte språkmodeller beveger seg raskt nedover, og det svekker argumentet for å låse all AI-trafikk til én leverandør. Samtidig er lav tokenpris bare én del av regnestykket. Kvalitet, latency, databehandling, sikkerhetskrav og operasjonell robusthet avgjør om modellen faktisk blir billigere i produksjon.
Fakta: Reuters meldte at DeepSeek senker prisene for V4-Pro med 75 prosent for å drive adopsjon. South China Morning Post omtalte samme dag at DeepSeeks nye V4-prising ligger langt under OpenAIs GPT-5.5-nivå. Tallene må derfor leses som et tydelig prissignal, ikke som en ferdig innkjøpsbeslutning.
Vurderingen: Dette øker presset på alle virksomheter som allerede har bygget AI-plattformer rundt dyre premium-modeller. CIO og CFO bør be teamene dokumentere kost per fullført oppgave, ikke bare pris per million tokens. Mange agent- og dokumentflyter kan rutes til rimeligere modeller hvis de har gode evalueringssett, logging og fallback til sterkere modeller når risikoen er høy.
For styret og ledergruppen er konsekvensen en enklere, men viktigere leverandørstrategi: ikke kjøp AI som om én modell skal vinne alt. Bygg et modellag som kan bytte mellom leverandører, regioner og kvalitetsnivåer. Det betyr standardiserte API-lag, kontrakter med dataprosesseringskrav, og klare regler for hvilke data som aldri skal sendes til modeller utenfor godkjent kontrollregime.
Råd denne uken: identifiser de tre dyreste AI-flytene, mål faktisk kvalitet mot minst én alternativ modell, og krev at nye AI-agentprosjekter har modell-ruting og exit-plan fra start. Billigere modeller er en mulighet. Uten governance blir de bare enda en uoversiktlig skygge-IT-kanal.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.