フィジカルAI本格実装
~VLA・模倣学習・双腕データ・説明可能AI・ヒューマノイドから読み解く~
生成AIの次の段階として、フィジカルAI(物理世界で行動するAI)が急速に注目を集めています。模倣学習、Vision-Language-Action(VLA)やLarge Behavior Model(LBM)は、ロボットの行動を大規模モデルとして学習し、複数のタスクに汎化することを目指すアプローチとして研究が進んでいます。しかし実世界では、接触・拘束・不確実性・安全性・計算資源など、シミュレーションでは現れない多くの要因が行動生成の制約となります。
こうした課題に対して、産業技術総合研究所のAIST-Bimanual Manipulationのような大規模実機データセットや、RoboManipBaselinesのような再現可能な評価基盤は、実ロボット学習を前進させる重要な基盤となっています。一方で近年は、ヒューマノイドロボットを対象とするあらたなスタートアップも登場し、ロボットを人間環境で動作させるためのAIアーキテクチャの再設計が進んでいます。東京を拠点とするRT社やGenki Robotics社のような企業は、ヒューマノイドロボットとAIを組み合わせたフィジカルAIの新しいアプローチを模索しています。また、フィジカルAIでは、AIの思考プロセスを明確にし、AIの判断が正しいことを確認できることがますます重要になってきます。
本セッションでは、
(1) 実機ロボット学習のためのデータ基盤
(2) 模倣学習・行動モデルの設計
(3) XAI(説明可能AI)と人間理解
(4) ロボティクスミドルウェアとAI統合
(5) ヒューマノイドロボットによるフィジカルAI
という複数の技術レイヤーを横断し、フィジカルAIが実世界で成立するための条件を議論します。研究、ミドルウェア、ヒューマノイドロボット開発、社会実装という異なる立場から、フィジカルAIを次の実装フェーズへ進めるための技術的なボトルネックと設計原則を明らかにします。
<要旨>
●生成AIの次段階 “フィジカルAI”を、実機データ基盤・模倣学習/VLA/LBM・評価基盤・XAI・ミドルウェア統合・ヒューマノイドまで横断し、設計と実装を議論する。