
言語条件付きロボットスキルは、大規模言語モデル(Large Language Models:LLMs)の高次推論能力を、低レベルのロボット制御に活用することを可能にする。残された課題の一つは、多様な基礎スキルの集合を獲得することである。既存のアプローチでは、複雑なタスクをトップダウン方式で基本的なロボット動作に手動分解する方法、あるいはボトムアップ方式で可能な限り多くの組み合わせを生成し、より広範なタスク空間をカバーしようとする方法が採られている。しかし、これらの分解や組み合わせはいずれも、初期スキルライブラリを前提としている。例えば、多様な「押す(pushing)」スキルのみを含むスキルライブラリから、「把持(grasping)」能力が自発的に生じることはない。
強化学習に基づく既存のスキル発見手法は、網羅的な探索によってスキルを獲得するが、その多くは意味のある行動に結びつかない。本研究では、LLMによって完全に駆動される自律的なロボットスキル発見のための新しい学習フレームワークを提案する。このフレームワークでは、まずLLMが与えられたシーン記述とロボットの構成に基づいてタスク提案を生成し、各タスクの完了を通じて新たなスキルを段階的に獲得することを目指す。
提案された各タスクに対して、LLMがサンプリングした報酬関数および成功判定関数を用いた一連の強化学習プロセスが開始され、対応するポリシーが学習される。学習された行動の信頼性と妥当性は、独立した視覚–言語モデルによって検証される。実験結果から、初期スキルがゼロの状態から出発しても、スキルライブラリが自律的に生成・拡張され、次第に意味があり信頼性の高いスキルが蓄積されることが示された。これにより、ロボットはより高度なタスクを効率的に提案・遂行できるようになる。
論文情報
Zhao, X., Weber, C., Wermter, S. (2026). Agentic Skill Discovery.
Robotics and Autonomous Systems, Vol. 196, 105248.
DOI: 10.1016/j.robot.2025.105248
論文全文:
https://www.researchgate.net/publication/397899113_Agentic_skill_discovery
