Anonymous Intelligence Signal
Metaの「TRIBE v2」が脳活動予測AIの新段階へ──視聴時の脳反応を高精度に予測
Metaの研究チームが、動画や音声を視聴・聴取した際の人間の脳活動を予測する基盤AIモデル「TRIBE v2」を開発した。これは単なる画像認識や音声認識を超え、外部刺激に対する脳内の神経活動パターンを直接「予測」することを目指す、神経科学とAIの融合領域における画期的な研究だ。論文「A foundation model of vision, audition, and language for in-silico neuroscience」で発表されたこのモデルは、視覚、聴覚、言語情報を統合的に処理し、それに対応する脳の反応を計算機内(in-silico)でシミュレートする基盤を構築している。
研究は、fMRI(機能的磁気共鳴画像法)で計測された脳活動データと、大規模なマルチモーダルAIモデルを組み合わせるアプローチを取る。TRIBE v2は、映像や音声といった刺激を入力として、特定の脳領域で観測される活動を高精度に予測することを可能にした。これにより、従来は被験者ごとに時間をかけて計測する必要があった脳反応の研究を、計算モデルを用いて大幅に加速できる可能性が示された。
この技術が発展すれば、脳科学の研究手法そのものに変革をもたらす可能性がある。新たな治療法の開発や、脳と機械のインターフェース(BMI)の設計、さらにはメディアコンテンツが視聴者に与える影響の客観的評価など、応用範囲は広い。しかし同時に、個人の最もプライベートな領域である「脳の反応」を外部から推測可能にする技術は、新たな倫理的・プライバシー上の課題を突きつける。研究はまだ初期段階だが、AIが人間の認知の「内側」に迫る一歩として、学界と産業界の双方から強い関心を集めている。