Nvidia satser på AI inference: Spår inntektsmulighet på 1 billion dollar innen 2027
Nvidia CEO Jensen Huang leverte et av de mest ambisiøse utsagnene i teknologihistorien under GTC 2026-konferansen: selskapet ser nå en inntektsmulighet på minst 1 000 milliarder dollar (1 trillion USD) for sine AI-chips innen 2027 — en fordobling fra prognosen på 500 milliarder dollar fra selskapets siste kvartalspresentasjon i februar.
Nøkkeldriveren er et strategisk skifte: Nvidia beveger seg fra å dominere AI-trening til å angripe inference-markedet med full kraft.
Trening vs. Inference — et avgjørende skille
Treningsmarkedet handler om å bygge AI-modeller. Inference-markedet handler om å kjøre dem — og det er her veksten nå skjer. Etter hvert som AI-modeller spres til millioner av brukere og applikasjoner, er det inference-belastningen som driver GPU-etterspørselen fremover.
Nvidia annonserte sin Vera Rubin-arkitektur som selskapets neste GPU-generasjon, spesielt optimalisert for inference-arbeidslast. CEO Huang kunngjorde også det kanskje mest dristige produktet på konferansen: NVIDIA Space-1 Vera Rubin — en AI-datamaskin designet for rombaserte datasentre.
Hva det betyr for norske bedrifter
Nvidia-prognosen signaliserer at AI-infrastruktur-investeringer ikke avtar — de akselererer. For norske CIO-er og IT-ledere betyr dette:
- Kapasitetspress: Etterspørselen etter GPU-kraft vil holde seg høy, og ventetider for cloud-kapasitet kan øke
- Inference-optimalisering: Bedrifter som bygger egne AI-løsninger bør nå tenke like mye på inference-kostnad som treningskostnad
- Nvidia-partnere: Azure, AWS og GCP vil alle bygge ut Vera Rubin-kapasitet — følg med på tilgjengelighet
Den samlede keynoten fra GTC 2026 bekreftet det mange allerede visste: Nvidia er ikke lenger bare en chipsprodusent — de bygger hele AI-stacken, fra hardware til programvare til sky-tjenester.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.