Eksklusivt: Inne i Amazons Trainium-lab – brikken som har vunnet over Anthropic, OpenAI og Apple
Amazon har invitert TechCrunch på en sjelden eksklusiv omvisning i sitt Trainium-chipslaboratorium i Santa Clara. Det er ikke tilfeldig timing: kort tid etter at AWS annonserte en historisk avtale på 50 milliarder dollar med OpenAI, åpnet Amazon dørene til chipfabrikken som nå leverer infrastrukturen for kunstig intelligens til noen av verdens mest innflytelsesrike teknologiselskaper.
Trainium er Amazons egenutviklede AI-akselerator, designet spesifikt for maskinlæringsinfrastruktur og inferens. Der Nvidia dominerer med sine H100- og H200 GPU-er, forsøker Amazon å utfordre monopolet med rimligere alternativ som likevel leverer på ytelse.
Ifølge TechCrunch håndterer Trainium2 allerede størstedelen av inferansetrafikken på Bedrock, Amazons tjeneste for entreprise-AI. Bedrock lar selskaper bygge applikasjoner oppå store språkmodeller fra blant annet Anthropic og Stability AI. Etterspørselen er så høy at Amazon har problemer med å produsere brikker raskt nok til å møte behovet fra Anthropic og Bedrock alene – og nå kommer OpenAI i tillegg.
Som del av den nye avtalen mellom AWS og OpenAI skal Amazon levere to gigawatt med Trainium-kapasitet. Det er en enorm forpliktelse. For å sette det i perspektiv: ett gigawatt tilsvarer strømforbruket til en by på rundt 750.000 husstander.
Interessant nok melder Financial Times at Microsoft kan mene at OpenAI-avtalen med Amazon bryter med Redmonds egne rettigheter til OpenAIs teknologi. Det kan gi nye juridiske komplikasjoner i et partnerskap-landskap som allerede er i rask endring.
For bedrifter som bruker skybasert AI, betyr Trainiums vekst konkret at alternativene til Nvidia-basert infrastruktur blir stadig mer modne og tilgjengelige. Amazon posisjonerer seg ikke bare som skyleverandør – de bygger en komplett AI-infrastrukturstack fra bunnen av.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.