Microsoft slipper egne MAI-modeller og går rett i strupen på OpenAI og Google
Microsoft har lansert tre egne grunnmodeller under MAI-navnet: MAI-Transcribe-1 for tale til tekst, MAI-Voice-1 for talegenerering og MAI-Image-2 for bildeproduksjon. Lanseringen ble først omtalt 2. april 2026 og modellene er tilgjengelige umiddelbart i Microsoft Foundry og MAI Playground.
Det viktige her er ikke bare nye modeller. Det viktige er at Microsoft nå viser tydelig at de vil eie mer av modell-laget selv, ikke bare distribuere OpenAI-teknologi gjennom Azure og Copilot. Ifølge Microsofts egne tall slår MAI-Transcribe-1 Whisper-large-v3 på FLEURS-benchmarken på tvers av 25 språk, mens MAI-Image-2 rulles ut i Bing og PowerPoint.
For CIO-er betyr dette mer enn enda en modellnyhet. Microsoft bygger nå en bredere vertikal stack med egne modeller for tale, stemme og bilde, tett koblet til produktivitetspakken og enterprise-distribusjon. Det kan gi lavere kostnader, mer kontroll og mindre avhengighet av partnernes veikart.
Dette er derfor en sak å følge tett hvis du bruker Azure AI, Copilot eller vurderer hvordan leverandørmakt i AI-markedet vil flytte seg gjennom 2026.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.