Google TurboQuant: Ny algoritme komprimerer AI-minne 6x og sender chip-aksjer ned
Google publiserte 25. mars 2026 et forskningsblogginnlegg om TurboQuant, en ny algoritme som komprimerer nøkkel-verdi-cachen i store språkmodeller med minst seks ganger, uten målbart tap i nøyaktighet. Reaksjonen i markedet kom umiddelbart: Micron falt 3 prosent, Western Digital mistet 4,7 prosent, SanDisk stupte 5,7 prosent, SK Hynix og Samsung Electronics falt henholdsvis mer enn 6 og 5 prosent innen få timer etter publiseringen.
Logikken bak salget er enkel. Minnebrikker utgjør en stor del av kostnadene ved å kjøre store AI-modeller. Hvis Google har funnet en måte å krympe dette behovet med seks ganger, kan etterspørselen etter HBM (High Bandwidth Memory) og annet AI-minne falle dramatisk.
Men analytikere fra JPMorgan og Morgan Stanley er ikke overbevist. De peker på Jevons-paradokset: når en teknologi blir mer effektiv og billigere, øker typisk den totale forbruket fordi flere tar den i bruk. Billigere AI-tjenester kan faktisk føre til mer minnebruk, ikke mindre.
Micron rapporterte for øvrig rekordresultater samme uke, med 196 prosent omsetningsvekst i Q2 2026. Selskapet opplyste at hele produksjonskapasiteten for 2026 og 2027 allerede er solgt ut.
TurboQuant er foreløpig presentert kun i et akademisk paper. Kommersialisering kan ligge langt frem i tid, og analytikere anser kursfallet som overdrevet. For CIO-er som kjøper inn AI-infrastruktur er det allikevel verdt å følge med: om algoritmen viser seg å fungere i praksis, kan kostnadene ved å drifte store modeller falle vesentlig.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.