Hopp til hovedinnhold
Fredag 24. april 2026AI-nyheter, ferdig filtrert for ledere
SISTE:
DeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investeringDeepSeek åpner V4 Preview med 1M kontekst og API-kompatibilitetOpenAI lanserer GPT-5.5 for ChatGPT og CodexAnthropic og Amazon utvider AI-alliansen med 5 GW kapasitet og ny investering
LG lanserer EXAONE 4.5: Multimodal AI som overgår GPT-5 mini
Multimodal AILGComputer Vision

LG lanserer EXAONE 4.5: Multimodal AI som overgår GPT-5 mini

JH
Joachim Høgby
9. april 20269. april 20263 min lesingKilde:

LG AI Research har lansert EXAONE 4.5, sin nyeste multimodale AI-modell som kan forstå og resonnere på tvers av både tekst og bilder samtidig.

Modellen ble annonsert 9. april 2026 og representerer en betydelig oppgradering fra tidligere versjoner. Ifølge LG overgår EXAONE 4.5 OpenAIs GPT-5 mini og Alibabas Qwen-3-VL på visuelle vurderingsbenchmarks.

Hva gjør EXAONE 4.5 spesiell?

Den nye modellen kombinerer tekstforståelse med avansert bildeanalyse i en unified arkitektur. Dette gjør den i stand til å:

  • Analysere komplekse visuelle scenarier med kontekstuell forståelse
  • Integrere tekst og bildedata for mer presise svar
  • Levere reasoning på tvers av modaliteter

Prestasjon mot konkurrentene

LGs interne testing viser at EXAONE 4.5 konsistent overgår etablerte modeller som GPT-5 mini på standardiserte visuelle benchmarks. Dette posisjonerer den som en alvorlig utfordrer til vestlige AI-giganter.

Strategisk betydning

Lanseringen understreker Sør-Koreas ambisjon om å konkurrere med USA og Kina innen AI. LG har investert kraftig i AI-forskning og ser EXAONE som en nøkkelteknologi for fremtidige produkter.

EXAONE 4.5 er tilgjengelig for utviklere og bedrifter som ønsker å implementere multimodal AI i sine applikasjoner.

📬 Likte du denne?

AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.