Home » SIGGRAPH2016で展示されていたVR/MR系注目の技術


テック 2016.08.12

SIGGRAPH2016で展示されていたVR/MR系注目の技術

7月末に開催されたCGの祭典SIGGRAPH2016の「Emerging Technologies(今後注目される技術)」と呼ばれる展示場ではHMDを利用した展示が多数あり、将来のVR技術を利用した生活の可能性の一部を垣間見ることができました。本記事ではその中から注目できそうなものを紹介します。中には日本からの展示もいくつかありました。
 

Digital Nature Group

筑波大学のDigital Nature Groupは2つの展示を行っていました。 

Yadori

YadoriはOculus Riftとパペット人形を使ったテレプレゼンスロボット。ユーザーの声やボディーランゲージを人形に転送し再現できるシステムです。HMDを被ったユーザーは人形の目の部分にあるカメラを通して人形のある位置から見える景色を見ることができます。ボイスで話すだけでなく、遠隔で子供やペットとのコミュニケーションを行ったりなど様々な用途が容易に想像できます。 

Graphical Manipulation of Human’s Walking Direction with Visual Illusion

このシステムはOculus Riftを被ったユーザーが外部から進行方向を操作されるというもの。OvrvisionというVRHMDの前面につけたカメラの映像と視界を気づかない程度に左右に切り抜き、ずらして、無意識のうちに意図した進行方向からそれた方向に進ませます。東京大学とUnity Technologies Japanのチームが開発した『Unlimited Corridor』とも共通する「まっすぐ歩いているつもりが実は違う」という仕組みです。

実際に体験してみると、直進していたつもりが確かにOculus Riftを外すと左にそれているので、非常に不思議な感覚です。開発者によると、前に1m進むにつき20cmほど左右にそらすことが限界だそうですが、角度を徐々にそらしていくので左右のずれは指数的に伸びていくとのこと。
 

Laplacian Vision

Laplacian VisionはマイクロソフトのMRデバイスHoloLensを利用してボールが未来に描く軌道を現実世界で可視化しています。スポーツ音痴な筆者でもボールがどこに行くかがわかればスポーツができるかもしれません。このような技術は拡張現実とも呼びますが、人間の能力を強化する技術なので、拡張人間とも呼ぶそうです。
 

ZoeMatrope

東京大学の渡邊研究所が展示していた『ZoeMatrope』は現実世界の物体にあらゆる「マテリアル」を適応させることができるシステムです。RGBだけでなく、アルファ値、スぺキュラなども調整可能。原理としては、高速に回転する台に同じ形状で異なる色や光沢のものを置き、選択的に照明を照らすことによってそれぞれが混ざって見える錯覚を利用しているそうです。高速プロジェクターを使えばピクセル単位でマテリアルを調整することができるそうです。VRHMDと違って複数の人が同時に見れるのが興味深いです。


VR/AR/VTuber専門メディア「Mogura」が今注目するキーワード