Google DeepMind slipper Gemini Robotics-ER 1.6 for mer autonome roboter
Google DeepMind annonserte 14. april Gemini Robotics-ER 1.6, en ny versjon av sitt embodied reasoning-system for roboter. Poenget er ikke bare bedre språkforståelse, men mer presis fysisk resonnering, med sterkere romforståelse, bedre flerkameraforståelse og ny støtte for å lese instrumenter som trykkmålere og nivåglass.
Det gjør lanseringen interessant fordi den flytter verdi fra demo til faktisk drift. DeepMind sier modellen kan fungere som høynivålaget i en robot, kalle verktøy som Google Search, samarbeide med vision-language-action-modeller og avgjøre om en oppgave faktisk er fullført. Sammen med bedre pointing, telling og success detection er dette akkurat den typen byggeklosser som trengs når roboter skal inn i lager, industri og inspeksjon.
Det mest konkrete nye grepet er instrument reading, utviklet i samarbeid med Boston Dynamics. Det er et godt signal om hvor markedet er på vei: ikke bare generelle roboter, men roboter som kan tolke miljøet sitt godt nok til å gjøre meningsfullt arbeid i fysiske omgivelser med sikkerhetskrav.
For CIO-er betyr dette at neste fase i AI ikke bare handler om copiloter på skjerm, men om modeller som blir kontrollag for fysiske arbeidsflyter. Google gjør også noe viktig strategisk ved å gjøre modellen tilgjengelig via Gemini API og Google AI Studio fra dag én.
Kilde: Google DeepMind, "Gemini Robotics-ER 1.6: Powering real-world robotics tasks through enhanced embodied reasoning", publisert 14. april 2026.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.