Home » 【体験レポ】今秋登場!iPhone・iPadで利用できるようになるAR機能をタッチアンドトライ


テック 2017.06.07

【体験レポ】今秋登場!iPhone・iPadで利用できるようになるAR機能をタッチアンドトライ

アップルは6月5日(現地時間)からアメリカ・カリフォルニア州サンノゼで開催している開発者向けイベント「WWDC2017」で、ARプラットフォーム「ARkit」を発表しました。

最大の特徴はiOS11としての新機能として提供されることで、すでに普及しているiPhoneやiPadで利用できるということです。発表会でもクレイグ・フェデリギ氏が「数億のiPhoneやiPadで動く。つまり、世界最大のARプラットフォームだ」と胸を張りました。

スマホ向けのARプラットフォームとしては、グーグルの「Tango」がありますが、対応機種が限られるなど、普及にはまだ時間がかかりそうです。しかし、ARkitならすでに普及しているiPhoneやiPadをiOS11にアップデートすれば、ユーザーはAR体験を楽しめるようになります。

ARkitは、端末内のカメラ、CPU/GPU、モーションセンサーだけを使っています。iPhone 7 Plusには2つのカメラが内蔵されており、ARkitも2つのカメラを使うかと思いきや、ひとつのカメラだけでARを実現しているようです。

グーグルのTangoでは赤外線センサーなどで深度が測れますが、ARkitではそうしたセンサーがないために深度が測れません。アップルとしては、新たなデバイスを追加して深度を測り、数センチ単位の精度を求めるよりも、いま普及しているiPhoneやiPadで稼働するARプラットフォームを優先したようです

ARアプリの飛躍的な増加が期待

実際に会場ではタッチアンドトライ会場があり、ARを試すことができました。

iPad Proにあるデモアプリを起動すると、まずカメラが立ち上がります。画面上に四角い枠が表示されるので、iPad Proを上下左右に動かし、机の上をスキャンします。

しばらくするとデモが試せるようになり、机の上にコーヒーカップを置くことができます。コーヒーカップを机の奥や手前に移動させることができ、距離に応じて大きさも変わっていきます。さらに花瓶や照明を置くことができました。

照明によって、机に影ができるのですが、照明をつけると、机の上に影できます。

iPad Proを横にしたり、斜めにすることで、コーヒーカップや花瓶、照明の見え方も変わってきます。

ちょっとしたデモでしたが、iPad Proがしっかりと机を認識し、ARとして機能することが充分に確認できました。始めにテーブルを認識したあと、さらに追加で床を認識することもできます。例えば、テーブルの上に花瓶を置いたあとに、床にいすを配置するのも可能です

ARkitでは、「高速で安定したモーショントラッキング」「基本的な境界での平面推定」「スケール推定」を可能としています。

iOS11が正式リリースされる今秋以降、iPhone、iPad向けのARアプリが飛躍的に増えてきそうです。


VR/AR/VTuber専門メディア「Mogura」が今注目するキーワード