VR/ARの最新研究まとめ[論文一覧]

 本ページは、VR(バーチャルリアリティ/Virtual Reality )、AR(オーグメンテッドリアリティ/拡張現実/Augmented Reality)、プロジェクションマッピング、3DCGに関する論文を厳選し、時系列順に随時更新、一覧にしている場所です。

 また、本ページのようにアーカイブベースではなく、速報ベースで取得したい方は、月1回の配信で最新論文を紹介するWebコンテンツもあります。

 初めての方はこちら

索引

最初に、索引として「A~Z」順に並べています。 索引を飛ばす場合はこちら。

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

VR/ARの最新研究一覧

1枚の画像からデジタル絵画の照明効果を生成するアルゴリズム

Generating Digital Painting Lighting Effects via RGB-space Geometry

デジタル絵画内の照明を後から自動挿入する技術。ストローク密度が高い所に陰影もより集まると仮定し照明効果を推定するアルゴリズム。光の当たる方向も多様に変更可。写真や3D画像でも可。動画


3Dプリントした物体の動きを追跡してプロジェクションマッピング

FibAR: Embedding Optical Fibers in 3D Printed Objects for Active Markers in Dynamic Projection Mapping

3Dプリントした物体の動きを追跡してプロジェクションマッピングする研究。物体内に埋め込んだ複数本の光ファイバーから発せられる赤外光を赤外線カメラで観測し姿勢位置を決定。距離が遠くても追跡しぴったり張り付いているように投影す。動画


3D写真

3D Photography using Context-aware Layered Depth Inpainting

1枚のRGB-D画像から3次元画像を生成する学習ベースの手法。入力画像から隠蔽(オクルージョン)された部分の色と深度のテクスチャを作成し合成する。Facebook 3D Photos等の類似技術より高品質。


布シミュレーション

Mixing Yarns and Triangles in Cloth Simulation  

布の動きをより現実的に再現する研究 。同じ布地上で三角形モデルと糸モデル(重要な領域のみ)を組み合わせて、衣服や旗などのクロスシミュレーションを細部(しわ,ひだ等)までよりリアルに再現する。 動画 


人の動きによる脂肪等の揺れを現実的に再現する研究

SoftSMPL: Data-driven Modeling of Nonlinear Soft-tissue Dynamics for Parametric Humans

人の動きによる脂肪等の揺れを現実的に再現する研究。人間における軟部組織の変形をシミュレートするニューラルネットワークを用いた手法。体の形状をパラメーター化し、インタラクティブに操作(軟部組織の増減、動きの選択)もできる。動画


光沢平面上に直立空中像、裸眼で視認

PortOn: Portable mid-air imaging optical system on glossy materials

机や床など光沢ある平面上に置くと裸眼視可能な垂直空中像を表示できるディスプレイの研究。フローリングや大理石、ガラスへの表示も可能。光沢面への反射は除去し空中像自体を際立たせる。本体は箱型で持ち運べる。動画


その空間だけボケさせる隠消現実メガネ

IlluminatedFocus: Vision Augmentation using Spatial Defocusing via Focal Sweep Eyeglasses and High-Speed Projector

その空間だけボケさせる隠消現実メガネの研究。目からの距離に関係なく特定の空間のみぼかす。可変焦点レンズとプロジェクタを使用。例:せたくない物だけを追跡しぼかす。机上の教科書だけシャープに漫画本はぼかす。2D画像内で背景だけぼかす等。動画


ARでドローンを操作

PinpointFly: An Egocentric Position-pointing Drone Interface using Mobile AR

ARでドローンを操作できるPinpointFlyの研究。モバイル端末で移動先へドラッグするのみ、高さは横のスライドバーで調整。左右高さ奥行きの3次元で位置決め。初心者も精密に操作できる。移動先までの飛行経路もなぞって指定可能。マーカー設置できれば野外でも使用可能 。動画


カメラ映像から人物のモーションキャプチャを行う技術

Synergetic Reconstruction from 2D Pose and 3D Motion for Wide-Space Multi-Person Video Motion Capture in the Wild

カメラ映像のみから複数人の動きを全身モーションキャプチャする研究。特殊装置やマーカー付スーツなし、服装も問わず広空間の多人数全身運動を同時にキャプチャ。激しい動き、人同士の重なり問題なし。ロボティクスで力筋も計算。カメラのみでスポーツやライブに活用。動画


Polyvision: 4D Space Manipulation through Multiple Projections

VR内において、4次元(4D) の感覚を体験できる高次元データと数学オブジェクトの探索を提案する研究。動画


MR自動制御システム

Context-Aware Online Adaptation of Mixed Reality Interfaces

Mixed Realityインタフェースにおいて、目の前に表示されるアプリケーションも表示するタイミングと場所、および表示する情報量を自動的に制御する研究。動画


ヘッドマウントディスプレイ(HMD)の背面に統合されたデバイスで、物理的なコントローラー

FaceWidgets: Exploring Tangible Interaction on Face with Head-Mounted Displays

ヘッドマウントディスプレイ(HMD)の背面に統合されたデバイスで、物理的なコントローラーを使用したインタラクションを可能にする研究。物理的なコントローラーには、ボタンやジョイスティック、回転するボタンなどが搭載する。動画


低視力者向けにAR階段ナビゲーションを提案する研究

Designing AR Visualizations to Facilitate Stair Navigation for People with Low Vision 

低視力者向けにAR階段ナビゲーションを提案する研究。投影する方式と光学シースルーHMDを用いた方式で提示する。上り下りする階段のエッジ部分を光らせたり、ユーザーの階段上での位置確認のための表示など。動画 


ARコンテンツおよび物理コンテンツとのインタラクションを提案する研究

Extending AR Interaction through 3D Printed Tangible Interfaces in an Urban Planning Context

ARコンテンツおよび物理コンテンツとのインタラクションを提案する研究。デモ動画では、都市計画をコンテキストに、3Dプリンタで印刷した建物の一部をベースに、モバイルARインタフェースで拡張する様子を確認できる。動画


スマートフォンの裏にハンドトラッカーを取付けARコンテンツを掴めるようにしたシステム

Portal-ble: Intuitive Free-hand Manipulation in Unbounded Smartphone-based Augmented Reality

スマートフォンの裏にハンドトラッカーを取付けARコンテンツを掴めるようにしたシステムを提案する研究。スマートフォンを移動させながらモニターを越えAR物体を掴める。AR物体に遠い距離、近いが手に届かない距離、手に届く距離、触れた状態、掴んだ状態を視覚、聴覚、触覚で区別し提示するUX。動画


Recycling a Landmark Dataset for Real-time Facial Capture and Animation with Low Cost HMD Integrated Cameras

VR HMD内の顔の表情をトラッキングし、同じ動きをアバターで駆動させる手法を提案する研究。口の動き、視線の追跡、まばたきの動きをリアルタイム検出 。動画


FaceDrive: Facial Expressions Commands to Control Virtual Supernumerary Robotic Arms

顔の表情からロボットアームを制御するシステムを提案する研究。 4つのコマンド(アームを伸ばす、縮める、掴む、離す)に対応した任意の表情を機械学習することでロボットアームの操作を可能 にする。動画


MR(複合現実)を活用してIoTの操作をビジュアルプログラミングできるシステム

ReallifeEngine: A Mixed Reality-Based Visual Programming System for SmartHomes

MR(複合現実)を活用してIoTの操作をビジュアルプログラミングできるシステム「ReallifeEngine」を提案する研究。動画では、人感センサーと電気スタンドのオンに繋ぎ、オフを物理スイッチに繋いでいる。またその間に5秒待つという指示や、圧力センサーの値が3を上回るとオンになる指示を組み込んだり。動画


MeCap: Whole-Body Digitization for Low-Cost VR/AR Headsets

スマートフォン用VRヘッドセットに鏡面半球ミラーを装着し自分の全身(手や口、衣服含む)をモーションキャプチャする手法を提案する研究。使用者の3D身体ポーズ、手や指のポーズ、顔の表情(口の状態を検出)、身体的外観(肌と衣服の検出)、および周囲環境のリアルタイム推定をする。動画


DreamWalker: Substituting Real-World Walking Experiences with a Virtual Reality

現実の町とバーチャルの町をリンクさせてVR内で物理歩行できるナビゲーションシステムを提案する研究。ユーザが実際に歩いている現実世界の屋外スペースを介してVR体験でナビゲートできるシステム。 つまり、現実空間を見なくても目的地に着けるということ。動画


卓上投影システム

Occlusion-aware Hand Posture Based Interaction on Tabletop Projector

卓上の投影画像をタッチジェスチャーや 空中ジェスチャー で滑らか操作を提案する研究。オクルージョンも回避し、CNNで多様なインタラクションを区別。部屋規模の大型投影やARグラスへの応用も可能。動画


Real-time Pose and Shape Reconstruction of Two Interacting Hands With a Single Depth Camera

重なり合いながら動く両手を1台の深度カメラのみから正確かつリアルタイムに再構築するマーカーレスの手法を提案する研究。両手による衝突も推定。動画


VR Facial Animation via Multiview Image Translation

VRデバイス装着者の顔の表情をリアルタイムにアバターへ反映させるシステムを提案する研究。 HMD内側に装備した9個のカメラで事前訓練をし、使用時は3個のカメラでキャプチャする。動画


1枚の静止画像に対して、ヴァーチャルオブジェクトの跳ね返りを推定し自然な相互作用ビデオを生成する手法

Neural Re-Simulation for Generating Bounces in Single Images

1枚の静止画像に対して、バーチャルオブジェクト(ボール)の衝突及び跳ね返りから相互作用する動画を生成する機械学習アプローチを提案する研究。動画


ヘアモデルを直感的に作成できるdeep Learningを用いたVRベースのヘアモデリングツール

HairBrush for Immersive Data-Driven Hair Modeling

緻密な髪の3Dモデルを直感的に作成できるVRベースのヘアモデリングツールを提案する研究。 モーションコントローラを駆使して 頭部モデルを参考に髪型をストロークしていくだけで、緻密で高品質なヘアモデルを作成できる 。動画


投影型仮想ハンドで触った実物体の触覚を再現するインタラクティブシステム

fARFEEL: Providing Haptic Sensation of Touched Objects using Visuo-Haptic Feedback

投影型バーチャルハンドで触った実物体の触覚を再現するインタラクティブシステムを提案する研究。ローカルサイトとリモートサイトの2つのサイトで構成され、ローカルユーザは、タッチパネルを用いてリモートサイトに投影されたバーチャルハンドを操作し、実物体に触れたり、バーチャルオブジェクトを移動させたりできる。リモートサイトの実物体に触れると触覚装置を介して触覚がローカルユーザにフィードバックされる。動画


同じ空間の現在と記録映像を気付かれずに自動差し替えする視線追跡ベースのVRシステム

EyeHacker: Gaze-Based Automatic Reality Manipulation

同じ空間の現在と記録映像を気付かれずに自動差し替えする視線追跡ベースのVRシステム「EyeHacker 」(SRの拡張版)を提案する研究。 ユーザの視線追跡に基づいて、同じ空間におけるライブシーンと記録シーンとを自動差し替えする。動画


VR上に描いた3Dペイントをサーフェスに変換する3Dモデリングインタフェース「SurfaceBrush」

SurfaceBrush: From Virtual Reality Drawings to Manifold Surfaces

VR内に描いた3Dペイントを3Dモデルに変換するサーフェスモデリングツール「SurfaceBrush」を提案する研究。 描画されたストロークのポリラインに沿ってエッジ間の接続性を決定し、入力ブラシストロークから目的のサーフェスを再構築。動画


VRにおける視線先だけ高解像度にする中心窩レンダリングを画像内オブジェクトも考慮して最適化する手法

Luminance-Contrast-Aware Foveated Rendering

VRにおいて、視線先だけを高解像度に、その周囲を低解像度する中心窩レンダリングを画像内のオブジェクトも考慮して最適化する手法を提案する研究。 画像内の重要なオブジェクトは視線外でも低解像度にならないといった具合。動画


広角カメラで撮影した画像の両サイドに写る被写体の顔の歪みを補正するアルゴリズム

Distortion-Free Wide-Angle Portraits on Camera Phones

広角カメラによる写真の両サイドに写る顔の歪みを補正するアルゴリズムを提案する研究。 FOV 120°までの画像における両サイドの顔を他の部分に影響を与えずに局所的に補正する。動画


内蔵カメラのRGB画像入力だけでスマートフォンなどのモバイル機器でAR指先追跡と手のジェスチャ認識を高精度かつリアルタイムに実行する機械学習フレームワーク

GestARLite: An On-Device Pointing Finger Based Gestural Interface for Smartphones and Video See-Through Head-Mounts

スマートフォン 内蔵カメラからのRGB画像入力だけでAR指先追跡と手のジェスチャ認識を高精度かつリアルタイムに実行する機械学習フレームワーク を提案する研究。動画


VR環境を離れることなくライブコーディングできるフレームワーク

Live Coding of a VR Render Engine in VR

VR環境を離れることなくライブコーディングできるフレームワークを提案する研究。HMDを取り外すことなく、デバッグや既存のレンダリングロジックの調整などができる。実行時にシーンオブジェクトとVR内モニタともドラック&ドロップでやり取りすることも可能 。動画


そうめんをラーメンに錯覚させるARとGANを組み合わせたリアルタイム味覚操作システム「Enchanting Your Noodles」

Enchanting Your Noodles: GAN-based Real-time Food-to-Food Translation and Its Impact on Vision-induced Gustatory Manipulation

そうめんをラーメンに錯覚させるARとGANを組み合わせたリアルタイム味覚操作システム「Enchanting Your Noodles」を提案する研究。 食品の外観(色やテクスチャ)をリアルタイムに変換することで、視覚的に味覚をコントロールするアプローチ 。動画


各々に適したVRワークスペースを生成する手法

Functional Workspace Optimization via Learning Personal Preferences from Virtual Experiences

各ユーザの動きを学習し、それぞれに適したVRワークスペースを生成する手法を提案する研究。キッチンテーブルの高さや食器棚の高さなどがパーソナライズされる。動画


VRユーザが現シーンでナビゲーションによる支援を必要としているかを視線追跡から予測する研究

Lost in Style:Gaze-driven Adaptive Aid for VR Navigation

VRユーザが現シーンでナビゲーションによる支援を必要としているかを視線追跡から予測する研究。 視線から適切な時にナビゲーションを表示/非表示することは、ユーザーの満足度を向上させる。動画


360°パノラマ画像の各オブジェクト位置(深度推定)に適した音源を割り当てる空間オーディオ・アルゴリズム

Audible Panorama: Automatic Spatial Audio Generation for Panorama Imagery

360°パノラマ画像の各オブジェクト位置(深度推定)に適した音源を割り当てる空間オーディオ・アルゴリズムを提案する研究。 画像内のシーンとオブジェクトを識別し、各オブジェクトの奥行きを推定、現実的なオーディオソースを希望の位置に配置することで臨場感を高めるアプローチ。動画


HoloLensとSLAMを組み合わせて、リアルタイムに3D音場を計測し可視化するシステム

Real-time Measurement and Display System of 3D Sound Intensity Map using Optical See-Through Head Mounted Display

HoloLensとSLAMを組み合わせて、リアルタイムに3D音場を計測し可視化するシステムを提案する研究。マイクロホンアレイを可視化したい場所に配置し計測する。動画


スマートフォンを用いて、より自然かつリアルタイムにメイキャップできるAR技術

Realistic AR Makeup over Diverse Skin Tones on Mobile

スマートフォンを用いて、より自然かつリアルタイムにメイキャップできるAR技術を提案する研究。ライブビデオストリーム上で行われ、フェイストラッキングから唇、目、頬などの顔領域を定義し、メイキャップアクセサリをレンダリング、元画像とブレンド。


高品質の3Dホログラフィをビデオとして投影できる専用コンピュータ「位相型 HORN-8」

Special-purpose computer HORN-8 for phase-type electro-holography

高画質画像を3D映像としてホログラフィ情報で投影できる「電子ホログラフィ」を可能にするホログラフィ用コンピュータ「位相型 HORN-8」を提案 する研究。動画


1枚の顔画像からモバイル端末に写実的な3Dアバターを作成し、自身の顔を介して動かせるdeep learningモデル「paGAN」

paGAN: Real-time Avatars Using Dynamic Textures

1枚の顔画像からモバイル端末に写実的な3Dアバターを作成し、自身の顔を介してリアルタイムに動かせるdeep learningモデル「paGAN」を提案する研究。動画


VR HMD装着者の表情を外部から取得できるIRパスフィルタを用いたHMD

Transparent Mask: Face-Capturing Head-Mounted Display with IR Pass Filters

VR HMD装着者の表情を外部から取得できるIRパスフィルタを用いたHMDを提案する研究。HMD装着者の顔を外部カメラから透過して見ることを可能とするHMD。動画


1秒間に1600枚の焦点面を表示する多焦点ディスプレイ

Towards Multifocal Displays with Dense Focal Stacks

1秒間に1600枚の焦点面を表示する多焦点ディスプレイを提案する研究。焦点調節可能なレンズを駆動して所望の範囲の焦点距離を周期的に掃引し、焦点距離を高速かつリアルタイムに追跡することにより、多数の焦点面を表示する。動画


半球ドーム装置を用いて映像投影でVR体験を提供するシステム

CompoundDome: スクリーンを部分的に透過することにより現実世界とインタラクションを可能にする装着型ドーム装置

半球ドーム装置を用いて映像投影でVR体験を提供するシステム「CompoundDome」を提案する研究。システムに肌が触れないため、髪の毛や化粧が崩れる心配、他人が密着で装着した機材を装着する心配もない。加えて、広視野体験(本システムの視野角は、約160°)、VR酔いの軽減にも繋がる。動画


リアルウォーキングVR体験において、仮想シーンを小さく分割することで物理空間に依存しない設計ができるツール

Scenograph: Fitting Real-Walking VR Experiences into Various Tracking Volumes

リアルウォーキングVR体験において、VRシーンを小さく分割することで物理空間に依存しない設計が可能なツール「Scenograph」を提案する研究。物語の構造を維持しながら、VRシーンを分割し、所与のサイズおよび形状の実際の追跡エリアに体験を適応する。例えば、25平方メートルのVRシーンをL字型の8平方メートルの6つのシーンに分割など。動画


重ねた2枚のレンズをスライドさせて焦点距離を変える視線追跡と組み合わせた可変焦点HMD

Verifocal: a Platform for Vision Correction and Accommodation in Head-Mounted Displays

重ねた2枚のレンズをスライドさせて焦点距離を変える視線追跡と組み合わせた可変焦点HMDを提案する研究。FOVを大きく保ったまま可変焦点できる。モバイルでも使用可能。また、最適な焦点距離は、ユーザの眼鏡処方も考慮しているため、眼鏡なしで快適な視聴体験も可能。動画


動き回ることが可能な実写ベースの仮想空間を作成できるCNNを用いた自由視点レンダリング法

Deep Blending for Free-Viewpoint Image-Based Rendering

動き回ることが可能な実写ベースのバーチャル空間を作成できるCNNを用いた自由視点レンダリング法を提案する研究。実写画像から新規のバーチャルシーンを生成する手法。左の画像は出力結果。動画


EgoFace: Egocentric Face Performance Capture and Videorealistic Reenactment

メガネフレーム側面に装着したカメラによる顔の側面映像から正面の表情を再現する機械学習を用いた手法を提案する研究。 RGB魚眼カメラから撮影した着用者の横顔を入力に、正面の顔をリアルタイムに再構築。動画


3-4台のRGBセンサから全身の動きを再構築するdeep learningを用いたパフォーマンスキャプチャシステム

Deep Volumetric Video From Very Sparse Multi-View Performance Capture

複数台(3-4台)のRGBセンサーでさまざまな角度から実際に動く人の全身運動をキャプチャし、再構築するCNN(Convolutional Neural Network)を用いた手法を提案する研究。動画


1枚のパノラマ画像から3Dルームレイアウトを推定し再構築する手法

LayoutNet: Reconstructing the 3D Room Layout from a Single RGB Image

1枚のパノラマ画像から3Dルームレイアウトを推定し再構築する手法を提案する研究。直方体ではないL字型のレイアウトにも対応する。動画


網膜に画像を直接投影することで、現実空間と仮想オブジェクトの調和を実現する透過型ミラーデバイスを用いたレーザ投影システム

Make your own Retinal Projector: Retinal Near-Eye Displays via Metamaterials

網膜に画像を直接投影することで、現実空間と仮想オブジェクトの調和を実現する透過型ミラーデバイスを用いたレーザ投影システムを提案する研究。LCOS-SLM型レーザプロジェクターを光源に、TMDで離散的に光源を分割し、眼球レンズの位置で離散点光源として再収束させることで網膜に投影する。動画


デュアルレンズ搭載スマートフォンで撮影した画像から3Dパノラマを生成する技術

Instant 3D Photography

デュアルレンズ搭載スマートフォンで撮影した画像から3Dパノラマを生成する技術を提案する研究。スマートフォンを動かして複数枚の画像を1秒間隔でキャプチャし、 深度マップ、スティッチング、任意のデバイスでレンダリングできるテクスチャ付きメッシュに変換する。動画


視覚障害者向けにHoloLensを用いて周囲情報を取得し音声で伝えサポートするシステム

Augmented Reality Powers a Cognitive Prosthesis for the Blind

視覚障害者向けにHoloLensを用いて周囲情報を取得し音声で伝えるサポートシステムを提案する研究。ユーザの周囲をスキャンしマップを作成、シーン内の各オブジェクトに対して、オブジェクトの位置を形成するような音声を生成し伝達する。壁などへの衝突を回避できる。予め指定した物体にラベリングしておくと、何があるかも教えてくれる。


VR体験者の目の瞬き時に仮想シーンを少し回転させるリダイレクトウォーキング技術

In the Blink of an Eye –Leveraging Blink-Induced Suppression for Imperceptible Position and Orientation Redirection in Virtual Reality

VR体験者の目の瞬き時にバーチャルシーンを少し回転させるリダイレクトウォーキング技術を提案する研究。 瞬きをしている時間における知覚ができない現象を利用して、気が付かれない値、瞬き中に約4〜9cm、約2〜5°の回転を実行する。これにより、物理空間以上の広さをバーチャル空間で歩行する。動画


映像に後から同期した空間オーディオを追加できる手法

Scene-Aware Audio for 360° Videos

一般的なモノラルマイクで収録された屋内での360°ビデオシーンに後から空間オーディオを追加する手法を提案する研究。専用のAmbisonicsマイクがなくても、視聴者に対して視野角と一致する空間オーディオを低コストで提供 できる。動画


2Dスケッチと3Dスケッチ(AR)を統合したハイブリット描画システム「SymbiosisSketch」

SymbiosisSketch: Combining 2D & 3D Sketching for Designing Detailed 3D Objects in Situ

2Dスケッチと3Dスケッチ(AR)を統合したハイブリット描画システム「SymbiosisSketch」を提案する研究。 3D空間に立体的な絵を描けることに加えて、3D空間で定義した曲面や平面キャンバスをタブレットに投影し2Dベースで描くことができ、逆にタブレット上で描くことで入力点が3Dキャンバスに投影され、新しいストロークが生成される。動画


HoloLensを用いて机や壁などの表面をタッチスクリーンにするインターフェース

Supporting Responsive Cohabitation Between Virtual Interfaces and Physical Objects on Everyday Surfaces

光学シースルーHMD(HoloLensなど)を用いて机や壁などの表面をタッチスクリーンにするインタフェース「MRTouch」を提案する研究。 机の表面をタイピングしたりなどWebブラウザのように使用したり、壁をキャンパスのようにし絵を描いたりが可能になる。動画


VRヘッドセットを用いて、その部屋のライブ3D再構築をインタラクティブに体験できるシステム

Remixed Reality: Manipulating Space and Time in Augmented Reality

Kinect 8台からのライブ3D再構築ルームをVRで体験できるシステムを提案する研究。部屋の天井に取り付けられた8台のKinectから取得したデータを、1つの3Dルームに結合し再構築する。物理ルームと3D再構築ルームはライブで位置を合わせする。現実空間をあたかも操作しているかのように感じられる。動画


1台の単眼カメラから人体3Dアバタを4.5mm精度で生成する機械学習を用いた手法

Video Based Reconstruction of 3D People Models

1台の単眼カメラから人体3Dアバタを4.5mm精度で生成する機械学習を用いた手法を提案する研究。複雑なカメラ機器や深度センサは必要とせず、1台のカメラからの単一の視点で、ぐるっと回るだけでスキャンし3Dモデルを作成する。動画


光学シースルーHMDを用いて色覚異常者を補助するメガネ型デバイス

ChromaGlasses: Computational Glasses for CompensatingColour Blindness

光学シースルーHMDを用いて色覚異常者を補助するメガネ型デバイス「ChromaGlasses」を提案する研究。ユーザが見る環境を感知し、環境中の重要な特徴(ユーザが区別できない色)を識別し検出、そして検出した重要な特徴に応じてHMDによってピクセル精度で色を補正することにより、色覚異常をリアルタイムに緩和させる。動画


Object-wise 3D Gaze Mapping in Physical Workspace

追跡したユーザの視線を3Dオブジェクト上に可視化し、各オブジェクトをどれだけ注視しているかを解析する3D視線マッピングシステムを提案する研究。各オブジェクトの視線分布を解析し、円グラフやヒートマップ、オブジェクトを色分けなどのランキング形式で可視化する。動画


単一カメラから手指の追跡をするCNNを用いたリアルタイム3Dハンドトラッキング技術

GANerated Hands for Real-Time 3D Hand Tracking from Monocular RGB

1台の RGBカメラから手指の追跡をするCNNを用いたリアルタイム3Dハンドトラッキング技術を提案する研究。物で隠れた指も正確に推定可能。動画


直観的にモデリングしながら同時にロボットアームが3Dプリントしてくれるシステム

RoMA: Interactive Fabrication with Augmented Reality and a Robotic 3D Printer

VRデバイスによるビデオシースルー技術とロボットアーム3Dプリンタを使用して、リアルタイムにモデリングしながら同時に印刷できるシステム「RoMA(Robotic Modeling Assistant)」 を提案する研究。 モーションコントローラを駆使して、エディタで3Dモデルを作成 、と同時にロボットアームが3Dオブジェクトを作成する。動画


眼球運動の矯正を用いた新たな多焦点ディスプレイ技術

Fast Gaze-Contingent Optimal Decompositions for Multifocal Displays

眼球運動の矯正を用いた新たな多焦点ディスプレイ技術を提案する研究。以前より計算時間を3桁改善する分解アルゴリズムと、視線追跡から計算し眼球運動の矯正を用いることで、 視線に合わせて体験者に適切な焦点面を高品質で提供するマルチフォーカスディスプレイを可能にする。動画


手指を動かした時の手の甲の皮膚変形を計測し機械学習で推定することでハンドジェスチャを認識する手法

Behind The Palm: Hand Gesture Recognition through Measuring Skin Deformation on Back of Hand by using Optical Sensors

手指を動かした時の手の甲の皮膚変形を計測し機械学習で推定することでハンドジェスチャーを認識する 装着型ウェアラブルデバイス を提案する研究。デバイスは、13個の反射型光センサー(フォトリフレクタ)が横一列に配置されており、手指を動かした時に変化する手甲の皮膚と装置までの距離を取得、「SVM(Support Vector Machine)」 で識別する。手指本来の動作を阻害することなくジェスチャー認識 ができる。動画


顔の表情やハンドジェスチャの細部な動きと体の大規模な姿勢を同時にマーカレスで複数人キャプチャできる3Dモデル手法

Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies

顔の表情やハンドジェスチャの細部な動きと体の大規模な動きを同時にマーカレスで複数人キャプチャできる3Dモデル手法を提案する研究。VGAカメラ480台、HDカメラ31台、Kinectセンサー10台が整備されたドーム型ボディスキャナシステムを用いて、胴体や腕の大きなモーションを同時にキャプチャ、細かな全身運動を再現する。動画


VRにおいて、狭い物理空間で大規模な仮想空間を歩行できる分割統治法を用いた新たなリダイレクト・ウォーキング

Smooth Assembled Mappings for Large-Scale Real Walking

VRにおいて、狭い物理空間で大規模な仮想空間を歩行できる分割統治法を用いた新たなリダイレクト・ウォーキング「Smooth Assembled Mapping(SAM)」を 提案する研究。 通路が連続するVR空間の平面図を分割し、物理世界の平面図に折り曲げて歪んだマップを生成する。動画


Angle-Multiplexed Metasurfaces: Encoding Independent Wavefronts in a Single Metasurface under Different Illumination Angles

解像度を低下させることなく2つのホログラムを1つの表面上に再現する角度多重ホログラムの提案をする研究。表面に当たる入射光の角度に応じて異なる反射を生成し、異なるホログラムを再現、 1枚の表面上に複数のホログラムを再構築する。


VR歩行環境を動的に自動調整する提案

NaviFields: Relevance fields for adaptive VR navigation

VRにおけるユーザの歩行環境を動的に自動調整する適応型VRナビゲーション技術「NaviFields」 を提案する研究。インタラクション要素が高い領域は通常移動で、関連性のない領域は高速移動にする。動画


実オブジェクトの後ろに仮想オブジェクトを隠し配置できる相互遮蔽可能な光学シースルーHMD

Design and prototype of an augmented reality display with per-pixel mutual occlusion capability

実オブジェクトの後ろにバーチャルオブジェクトを隠し配置できる相互遮蔽可能な光学シースルーHMDを提案する研究。偏光ビームスプリッター(PBS)、空間光変調器(SLM)などが用いられ、ピクセルごとの相互遮蔽をレンダリングする。画像:デジタルティーポットが物理物体の黒のスプレー缶の後ろに、物理物体のスクイズボトルと白いスプレー缶の前に鎮座する。


最大1000fpsで動作する深度カメラベースのハンドトラッキング

Articulated distance fields for ultra-fast tracking of hands interacting

最大1000fpsで動作する深度カメラベースのハンドトラッキングを提案する研究。手や指が互いに重なっても、途切れることなく追跡する。動画


「腕が伸びる感覚」をVR体感できるシステム

HMD を介したポールを引っ張り合うことによる腕が伸縮する感覚の誘発

「腕が伸びる感覚」をVR体感できるシステムを提案する研究。HMDを装着した体験者と協力者とが対面となり、⼀対⼀でポールを引っ張り合う過程で表現する。VR内では、自分の腕が表示され、「(現実世界の)腕を引っ張られる強さ」に応じて、「(イメージの世界の)腕の⻑さ」を滑らかに伸ばし、あたかも腕が伸びる感覚を再現。動画


Perceptually-Guided Foveation for Light Field Displays

視線先だけを高画質に描画する「中心窩レンダリング」とフォーカス調整ができる「4Dライトフィールド・ディスプレイ」を統合させた提案をする研究。ユーザーが見ている箇所と奥行きを一致させる試み。画像:左図:視線は右でフォーカスは奥。右図:視線は右でフォーカスは手前。動画


デフォーカスと色収差を考慮に入れ自然観察で生じるものに近い網膜画像を生成する色補正レンダリング方式

ChromaBlur: Rendering Chromatic Eye Aberration Improves Accommodation and Realism

デフォーカスと色収差を考慮に入れ自然観察で生じるものに近い網膜画像を生成する色補正レンダリング方式「ChromaBlur」を提案する研究。従来のレンダリングよりも自然な奥行きの印象を与えることができ、また、焦点調節可能なレンズと視線トラッキングを組み合わせることで、輻輳と焦点距離の不整合問題を最小限に抑えることができる。動画


VRヘッドセット装着者の表情の種類と強さを機械学習で推定し、アバターに反映させる技術

AffectiveHMD:組み込み型センサを用いた表情認識とバーチャルアバターへの表情マッピング

VRヘッドセット装着者の表情の種類と強さを機械学習で推定し、アバターに反映させる技術「AffectiveHMD」を発表する研究。HMDに組み込んだ反射型光センサ群は、発光部から赤外光を照射し反射光を受光することで、顔表面との距離を計測する。自然、喜び、怒り、驚き、悲しみの5種類が対象。動画


広い視野角の光学シースルーHMDを実現するための手法

Air Mounted Eyepiece: Design Methods for Aerial Optical Functions of Near-Eye and See-Through Display using Transmissive Mirror Device

広視野角の光学シースルーHMDを実現するための手法「AME」を提案する研究。MDCS(Micro Dihedral Corner Reflector Array)を用いたTMD(Transmissive Mirror Device、透過型ミラーデバイス)を使用して目の前にバーチャルレンズを提示することで実像をレンダリングし、VRヘッドセットを着用せずとも同等の体験を光学シースルーHMDベースで適応可能にする。動画


2人ペアのVRプレイヤーが別々のシチュエーションでありながら関連する行動を紐付け相手の作用を同時に引き起こし合うアイディア

Mutual Human Actuation

同時に体験する2人ペアのVRユーザーに対し、別々のシチュエーションでありながら相互に関連する行動を紐付けて実行する研究。画像:一方が魚釣りで竿の反発力を再現し、一方が凧揚げの引きを再現する。一方は出現する柱を踏んで前進するのに対して、一方がパズルを解くためにボックスを再配置する。動画


VRからロボットを遠隔操作するシステム

Baxter’s Homunculus: Virtual Reality Spaces for Teleoperation in Manufacturing

VRからロボットを遠隔操作するシステムの研究。VR制御室には、目の前にロボットの目からの映像が2Dモニターとして映し出され、両サイドにはロボットの手のカメラからの映像がサブモニターとして表示され、 それらを見ながら腕と手を操作する。動画


フルボディモーションキャプチャでより詳細な手の動きを再現する手法

Embodied Hands: Modeling and Capturing Hands and Bodies Together

フルボディモーションキャプチャで、より詳細な手の動きを再現する手法「Embodied Hands」を提案する研究。全身のモーションキャプチャにおいて、手の指などの細かい箇所のノイズを、より精密に表現したのが本手法。動画


ユーザーの顔の表情を読み取りエージェントと非言語対話を可能にする機械学習モデル

Learn2Smile: Learning Non-Verbal Interaction Through Observation

ユーザーの顔の表情を読み取りエージェントと非言語対話を可能にする機械学習モデル「Learn2Smile」を提案する研究。マシーン側が、 自然言語認識や音声認識で取得する際に、人間の表情も読み取り判断に役立てるというシステム。


SpinVR: Towards Live-streaming 3D VR Video

360°の映像をカメラの高速回転でライブストリーミングするVRカメラシステム「SpinVR」を提案する研究。2つの魚眼レンズを搭載したカメラアレイを水平方向に高速回転させ、全方向性ステレオ(ODS)形式でネイティブにキャプチャ。動画


光学シースルーHMDで表示する半透明な仮想オブジェクトを実物のようにくっきり写す不透明描写手法

Occlusion Leak Compensation for Optical See-Through Displays using a Single-layer Transmissive Spatial Light Modulator

光学シースルーHMD(OST-HMD)において、実世界に重なって表示される半透明なバーチャルオブジェクトを実物のようにくっきり写す不透明描写方法を提案する研究。バーチャルオブジェクトに応じて計算された遮蔽マスクをLCDに表示し、仮想物体に重なる背景の光を遮ることで、遮蔽を実現。動画


VRヘッドセット装着者の顔の表情や眼の動きを捉えリアルタイムに再構築する技術

FaceVR: Real-Time Facial Reenactment and Eye Gaze Control in Virtual Reality

VRヘッドセット装着者の顔の表情や眼の動きを捉えリアルタイムに再構築する技術「FaceVR」を提案する研究。正面からRGB-Dセンサーで顔全体をキャプチャし、HMD内部のIRセンサーで眼球をトラッキング 。リアルタイムに顔を制御し再レンダリングする。動画


VRヘッドセットを装着したユーザーの眼を追跡し捉えた画像のみで、そこから顔全体の表情をDeep learningを用いて推測する手法

Eyemotion: Classifying facial expressions in VR using eye-tracking cameras

VRヘッドセット装着者の眼を捉えた画像のみから残りの顔全体の表情をDeep learningを用いて推定する手法「Eyemotion」を提案する研究。推定した顔の表情を動的アバターへリアルタイムに反映。動画


CGキャラクターと戯れるベンチベースのAR体験プラットフォーム

Magic Bench — A Multi-User & Multi-Sensory AR/MR Platform

CGキャラクターと戯れるベンチベースのAR体験プラットフォーム「Magic Bench」を提案する研究。自身が映る目の前の巨大画面を見ながら、3DCGによるキャラクターと戯れたり、エフェクトを共有したりが可能。ベンチ自体には、ハプティックアクチュエーターを含んでいるだけでなく、参加者の位置と数を知る役割を果たす。動画


単眼式ライトフィールド・パノラマカメラ

A Wide-Field-of-View Monocentric Light Field Camera

視野138°の情報を取得し、4次元画像を生成する単眼式ライトフィールド・パノラマカメラを提案する研究。マイクロレンズアレイを使用して、単焦点レンズと複数のセンサーを結合し、広視野角でライトフィールドを取り込めるコンパクトな光学設計。動画


HoloLensなどのARヘッドセットを使用してバイタルサインのリアルタイムな可視化を可能にする生理学的測定ツール

Cardiolens: Remote Physiological Monitoring in a Mixed Reality Environment

HoloLensなどのARヘッドセットを使用してバイタルサインのリアルタイムな可視化を可能にする生理学的測定ツール「Cardiolens」を提案する研究。前方にいる被験者の顔から反射した周囲光を捕らえ、その光を分析し血液量パルスとバイタルサインを計算する。動画


VR体験中のプレイヤーとVRオブジェクトを同時に他者が目視できるシステム

CAVE-based Visualization Methods of Public VR Towards Shareable VR Experience

VRプレイヤーの体験を他者(オブザーバー)と共有するシステム「ReverseCAVE」を提案する研究。立方体に配置する4つの半透明スクリーンとプロジェクター複数台で構成され、スクリーンにはVR空間上のオブジェクトが投影され、オブザーバーは立方体内でプレイするユーザー含め目視できる。オブザーバー自身も追跡するため、移動により見る角度が変わっても位置関係を保つ。動画


視線追跡において次見る場所を予測し低遅延で中心窩レンダリングする新提案

Saccade Landing Position Prediction for Gaze-Contingent Rendering<

サッカード眼球運動中のレンダリングで画像を更新する手法を提案する研究。サッカードが終了する可能性が高い場所を予測し、予測が利用可能になるとすぐに新しい固定場所の画像を提供するというアプローチ。次見る場所を予測し、固定が確立される前に新しい固定の正しい画像を提供する。


VRにおける焦点面ディスプレイ「Focal Surface Display」

Focal surface displays

空間光変調器(Spatial Light Modulator,SLM)を使用して光がディスプレイに入る方法を変えて、焦点を曲げて見せるVRディスプレイ「Focal Surface Display」を提案する研究。光源からの光の分布(位相・偏波面・振幅・強度・伝播方向)を電気的に制御することにより光を変化させ、画像の選択された部分の焦点を変更するために曲げる。動画


ボールの未来軌道をARで先に視覚化

Laplacian Vision: Augmenting Motion Prediction
via Optical See-Through Head-Mounted Displays

光学シースルーHMD越しに見ることで、ボールが跳ねる物理オブジェクトの未来動作を予測し先に表示してくれる未来予知システムの研究。将来の軌道を予測し、リアルタイムに視覚化。動画


Deep learningを用いて流体シミュレーションを生成するモデル

Deep Fluids: A Generative Network for Parameterized Fluid Simulations

Pixarによる研究チームは、流体力学に基づいて気体や液体などの物理ベースのシミュレーションを合成するためのdeep learningアーキテクチャ「Deep Fluids」を提案する研究。乱流の煙から粘性のある液体まで多種多様な流体動作を構築し、トレーニングデータにない連続的な変化に対しても、もっともらしい動きを合成する。動画


ARシーンの意図を考慮して仮想キャラクタを適切に配置するCNNを用いた手法

Virtual Agent Positioning Driven by Scene Semantics in Mixed Reality

ARシーンの意図を考慮して仮想キャラクタを適切に配置するCNNを用いた手法を提案する研究。HoloLensに搭載されたRGB-Dカメラからシーンの3Dモデルを再構築し、Mask R-CNNで物体検出し、オブジェクトを検出。シーンの意味および対話の目的に従ってバーチャルキャラクタを配置する。


複数台のRGBカメラだけから人のモーションキャプチャをリアルタイムに行う技術

Video Motion Capture from the Part Confidence Maps of Multi-Camera Images by Spatiotemporal Filtering Using the Human Skeletal Model

複数台のRGBカメラだけから人のモーションキャプチャをリアルタイムに行う技術「VMocap」を提案する研究。4台のカメラを同期させて、異なる方向から人物のビデオ映像を録画し、それぞれをDeep Learning処理して画像から関節の存在確率を推定、これらを参考にして、多自由度の人間骨格モデルを動かすことで、運動の3次元再構成を行う。動画


ページ上部へ戻る