慶應義塾大学大学院と東京大学、VRで遠隔操作されるロボットアーム2本と同じ物理空間で共同作業可能なVRテレコラボレーションシステムを発表

慶應義塾大学大学院メディアデザイン研究科と東京大学先端研 稲見・檜山研究室の研究者らは、VRで遠隔操作された2本のロボットアームを用いて、同じ視点、同じ物理空間で共同作業できるウェアラブルVRテレコラボレーションシステム「Fusion」を発表しました。

論文:Fusion: Full Body Surrogacy for Collaborative Communication
著者:MHD Yamen Saraiji, Tomoya Sasaki, Reo Matsumura, Kouta Minamizawa, Masahiko Inami

本論文は、2本のロボットアームをVRでリアルタイムに遠隔操作できるロボットシステムを提案します。

システムは、バッテリやコンピュータなどが収納されたポータブルバックパックを背負うかたちで使用し、それに接続する2本のロボットアームは背中から両サイドに伸びるように、そして、3軸ジンバル付きステレオカメラが備わった頭部は肩の上に配置されます。

操作は、遠隔にいる別の人間がVRヘッドセット(Oculus Rift)とVRモーションコントローラ(Oculus Touch)を駆使してコントロールします。追跡された頭を移動させながらカメラからの視覚情報をVRヘッドセットで確認し、VRモーションコントローラでロボットアームを動かす。手の部分には、フォースフィードバックも備わっています。

現在のプロトタイプシステムの重量は21ポンド(約9.5kg)で、駆動時間は約1時間半です。

これらのことで、遠隔で操作する人の腕2本、装着者の腕2本、合わせて4本で共同作業がリアルタイムにでき(直接コラボレーション)、さらに、ロボットアームをシステム装着者の両腕それぞれに合体させることで、装着者の腕を操りながら指導する活用(強制身体誘導)も可能にします。

 

アーカイブ

ページ上部へ戻る