Microsoft lanserer tre egenutviklede AI-modeller – vil bli uavhengig av OpenAI
Microsoft har i dag lansert tre nye egenutviklede AI-modeller på sin Foundry-plattform: MAI-Transcribe-1, MAI-Voice-1 og MAI-Image-2. Lanseringen er et tydelig signal om at selskapet ønsker å redusere sin avhengighet av OpenAI, som lenge har vært deres viktigste AI-partner.
MAI-Transcribe-1 er en talegjenkjenningsmodell som konkurrerer direkte med OpenAIs Whisper. MAI-Voice-1 er en teksttalesyntese-modell, mens MAI-Image-2 er Microsofts svar på bildegenerering. Alle tre er tilgjengelige via Azure Foundry fra og med i dag, 3. april 2026.
Bakgrunnen for lanseringen er Microsofts ønske om å kontrollere sin egen AI-skjebne. Selv om selskapet har investert tungt i OpenAI og integrert ChatGPT-teknologi i Copilot, har avhengigheten skapt sårbarhet. Med egne modeller kan Microsoft tilby AI-tjenester til sine enterprise-kunder uten å gå gjennom en tredjepart.
Microsoft kunngjorde samtidig sin 2026 Release Wave 1 for Dynamics 365, Power Platform og Microsoft 365 Copilot, med sterk vekt på agentisk AI. Selskapets ambisjon er klart: AI-agenter som handler på vegne av brukere, ikke bare svarer på spørsmål.
For CIOer og IT-ledere er dette en viktig nyhet. Microsofts plattform blir sterkere og mer selvforsynt, noe som gir bedre prisstabilitet og færre avhengigheter i leverandørkjeden.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.