Samsung leverer HBM4-chips til OpenAIs første egenutviklede AI-prosessor
Samsung Electronics har inngått en avtale om å levere neste generasjons HBM4-minnebrikker til OpenAI, som skal brukes i ChatGPT-selskapets første egenutviklede AI-prosessor.
Hva betyr dette?
Ifølge den sørkoreanske avisen Korean Economic Daily og bekreftet av Reuters, planlegger Samsung å forsyne OpenAI med sine HBM4 (High Bandwidth Memory 4) chips. Dette er en sentral komponent i den nye prosessoren OpenAI utvikler in-house.
Bakgrunn
OpenAI har lenge vært avhengig av NVIDIA-GPUer for sine AI-trenings- og inferensbehov. Å utvikle en egendefinert prosessor er et strategisk skritt mot å redusere denne avhengigheten og potensielt kutte kostnader dramatisk – en trend vi ser hos Google (TPU), Amazon (Trainium/Inferentia) og Microsoft (Maia).
HBM4 – hva er det?
High Bandwidth Memory er spesialbygd minne for AI-arbeidsbelastninger. HBM4 representerer neste generasjon, med langt høyere båndbredde og energieffektivitet enn dagens HBM3E som dominerer markedet.
Implikasjoner for CIO-er
Denne utviklingen signaliserer at de store AI-selskapene beveger seg mot vertikal integrering av maskinvare – noe som over tid kan endre prisdynamikken for AI-tjenester og skape nye leverandørkjeder i halvlederindustrien.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.
Relaterte saker
OpenAI lanserer GPT-5.5 for ChatGPT og Codex
OpenAI ruller ut GPT-5.5 til ChatGPT og Codex med tydelig fokus på agentisk arbeid, verktøybruk og høyere kodekvalitet.