Microsoft bryter med OpenAI: Lanserer egne AI-modeller for tale, transkripsjon og bilder
Microsoft lanserte 5. april tre egenutviklede AI-modeller under MAI-initiativet (Microsoft AI): MAI-Transcribe-1, MAI-Voice-1 og MAI-Image-2. Lanseringen er et tydelig signal om at selskapet vil redusere avhengigheten av OpenAI og konkurrere direkte med Google og Anthropic.
MAI-Transcribe-1 er en talegjenkjenningsmodell for bedrifter med støtte for 25 språk og en GPU-kostnad som er 50 prosent lavere enn sammenlignbare alternativ. Ordfeilraten er lavere enn GPT-Transcribe og Gemini 3.1 Flash på nøyaktighetsbenchmarks.
MAI-Voice-1 genererer 60 sekunder med ekspressiv tale på under ett sekund på én enkelt GPU. Den kan lage egne stemmer basert på bare noen sekunder med lyd, noe som åpner for skalerbar stemmebasert personalisering.
MAI-Image-2 er Microsofts andre generasjons teksttil-bilde-modell og toppet Arena.ai-leaderboardet da den ble lansert. Den genererer bilder minst dobbelt så raskt som forgjengeren på Foundry og Copilot.
Modellene er allerede integrert i Copilot, Bing, Azure Speech og PowerPoint, og er tilgjengelige via Microsoft Foundry og MAI Playground for utviklere og bedrifter.
For norske CIO-er er dette relevant fordi det betyr økt konkurranse og lavere priser i enterprise-AI, og at Microsoft-produkter nå kjøres på egne modeller i stadig større grad.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.