Meta lanserer TRIBE v2: AI som spår hvordan hjernen reagerer på bilder, lyd og tekst
Meta FAIR (Fundamental AI Research) har lansert TRIBE v2, en AI-modell som fungerer som en digital tvilling for hjerneaktivitet. Modellen ble publisert 26-27. mars 2026 og representerer et gjennombrudd i beregningsbasert nevrovitenskap.
TRIBE v2 (Trimodal Brain Encoder v2) er trent på over 1.000 timer med fMRI-data fra 720 forsøkspersoner som ble eksponert for filmer, podkaster, bilder og tekst. Den kan forutsi hvordan hjernen reagerer på visuelle, auditive og språklige stimuli med 70 ganger høyere spatial oppløsning enn tidligere modeller.
En nøkkelegenskap er zero-shot-generalisering: modellen kan lage prediksjoner for nye individer, ukjente språk og helt nye oppgaver uten opplæring på ny. I kontrollerte tester replikerte den kjente nevrovitenskapelige funn, som hjernens spesialiserte regioner for ansikter, steder og språk.
Meta har gjort kode, modellvekter og en interaktiv demo fritt tilgjengelig. Mulige bruksområder spenner fra akselerert nevroforskning til utvikling av bedre brain-computer interfaces og behandling av nevrologiske lidelser.
Arkitekturen kombinerer LLaMA 3.2 for tekst, V-JEPA2 for video og Wav2Vec-BERT for lyd.
📬 Likte du denne?
AI-nyheter for ledere. Kuratert av en CIO som bygger det selv. Daglig i innboksen.