MIT、ロボットにコンテキスト(文脈)レベルの音声コマンドを理解できるようにさせるシステム「ComText」を開発。「私が置いた箱をピックアップして」などを理解する

マサチューセッツ工科大学(MIT)の「CSAIL(Computer Science and Artificial Intelligence Laboratory)」は、ロボットへの自然言語命令において、コンテキスト(文脈)レベルの音声コマンドを理解できるようにするシステム「ComText」を開発しました。

ComTextは、ロボットが「私が置いた箱をピックアップして」などのコンテキスト・コマンドを理解することができるシステムです。

2本のアームロボット「Baxter」でテストされ、元々置いてある箱と、今から置く箱、どちらを取るか正確に理解し間違うことなく指定した箱をピックアップします。

また、「私が持っている箱は私のです」と言うと、知識として追加され、その記憶をベースとした一連のタスクを実行させることもできます。

システムは、ロボット・ラーニングにおいて「意味記憶」だけでなく、イベント(事象)の記憶である「エピソード記憶」を収集するために働いており、このメモリから理由を推論し、意味を推測し、幅広いコマンドに応答することを可能にします。

本研究は、自然言語の音声コマンドを理解し合える、人間とロボットが協力して作業する世界のステップになります。

 

関連

UCバークレー、これまでに見たことがない物体を機械学習によって最良の掴み方を選択し実行するロボティクス・システム「Dex-Net」を発表 | Seamless

アーカイブ

ページ上部へ戻る