早稲田大学など、混雑した環境における視覚障害者と歩行者の衝突回避支援スーツケース「BBeep」を発表。CNNを用いた衝突予測に基づき、周囲へ警告音を鳴らす

早稲田大学、カーネギー・メロン大学、東京大学、IBM Researchによる研究チームは、周囲の歩行者に対して警告音を用いて視覚障害者の存在を通知することににより、視覚障害者が進む道を譲るように促すCNN(Convolutional NeuralNetwork)を用いたスーツケース型システム「BBeep」を発表しました。(論文リンクプロジェクトページ

論文:BBeep: A Sonic Collision Avoidance System for Blind Travellers and Nearby Pedestrians

著者:Seita Kayukawa, Keita Higuchi, João Guerreiro, Shigeo Morishima, Yoichi Sato, Kris Kitani, and Chieko Asakawa
所属:Waseda University, Carnegie Mellon University, University of Tokyo, Waseda Research Institute for Science and Engineering, IBM Research

本論文は、視覚障害者が空港などの混雑した環境を移動する際、ユーザと周囲の歩行者両方に対して警告音を用いて衝突の危険性を通知することで、歩行者と衝突しない経路をユーザに提供するシステムを提案します。

単純に警告音を常時鳴らし続けることは、歩行者にユーザの存在を認識してもらえる反面、不必要な警告音が周囲へのノイズとなるため、社会受容性が低いシステムになってしまいます。そのため、警告音を鳴らす回数を可能な限り抑え、社会受容性を向上させることが重要です。そこで本提案では、周囲の歩行者がユーザと衝突する危険性があるかを推測し、両者が衝突する危険性がある時のみ警告音を鳴らすシステムを提案します。

提案手法は、スーツケースに取り付けられたステレオカメラを用いてRGB画像とデプス情報を取得し、歩行者の位置の検出、トラッキング、及び将来位置の予測を行います。具体的には、RGB画像からCNNを利用した物体検出手法を用いて歩行者の検出を行い、検出結果とデプス情報を対応させることにより歩行者の位置を取得します。次に歩行者の位置情報の変化を元に歩行者のトラッキングを行い、歩行者の動きの推定及び将来位置の予測を行います。将来位置の予測結果に基づいて歩行者がユーザと衝突する危険性があるか否かを判定し、両者が衝突する危険性がある時のみ警告音を鳴らします。

また、ユーザと歩行者の衝突回避に効果的な警告音の鳴らし方をデザインするために、音の種類や鳴らすタイミングが異なる複数の警告ポリシーを用意し、警告音に対する歩行者の進路の変化を調査しました。得られた知見から3種類の音で知らせるシステムを提案しました。

評価実験では、6人の視覚障害者をユーザとして募集し、本システムを使用しながら国際空港内を移動するタスクを与えました。調査の結果、本システムを使用することで、視覚障害者と歩行者の衝突回数が大幅に低減したことがわかりました。今後は衝突予測に顔向き検出などのコンピュータビジョン技術を組み込み、警告音を鳴らす回数をさらに減らすことで、システムが有効に働く場面をさらに拡大していきたいとします。

アーカイブ

ページ上部へ戻る