Home » アップルが「ARKit4」をリリース、ARオブジェクト固定や顔トラッキング強化へ


業界動向 2020.06.23

アップルが「ARKit4」をリリース、ARオブジェクト固定や顔トラッキング強化へ

アップルは開発者会議WWDC2020にて、iOSとiPadOSにおけるAR機能の新バージョン「ARKit4」を発表しました。周囲の環境をより正確に認識し、現実とシームレスに重なるARや、特定のスポットに紐付けされたオブジェクトを実現します。

同社は2020年3月に「ARKit3.5」をリリースしており、これに次ぐアップデートとなります。「ARKit4」は「ARKit3.5」同様、新型iPad Proの「LiDARスキャナ」に対応します。

「ARKit4」の特長

「ARKit4」の主な特徴は以下の通りです。

デプスAPI

LiDARスキャナのシーン認識機能により、周囲の情報をピクセル単位で収集します。これを3Dメッシュデータと統合。実際の物との重なりを正確に表すなど、より現実に馴染むバーチャルオブジェクトを生成できます。LiDARスキャナを搭載する新型iPad Proの11インチ、12.9インチモデルが対象です。

ロケーション・アンカー

「Location Anchors(ロケーション・アンカー)」は、有名なスポットといった現実の世界にARオブジェクトを置く機能です。緯度経度、高度を指定した場所にARを紐付けできるため、ユーザーはこのオブジェクトに周囲を歩いたり、好きな角度から見ることが可能です。 iPhone XS、iPhone XS Max、iPhone XR以降のモデルが対象、一部の都市のみでの展開です。

フェイス・トラッキング機能の拡張

A12以降のチップを搭載する全てのモデル(新型iPhone SEを含む)で、フロントカメラを使ったフェイス・トラッキングが実現します。最大3人までのユーザーの顔を追跡し、スナップチャットのような顔へのARエフェクトの精度を上げます。

モーション・キャプチャも強化へ

また併せて、ARKit4ではモーション・キャプチャ機能も強化されます。フロントカメラでユーザーの顔を、背面のカメラで周囲を同時に捉えることができ、同時に処理します。機械学習をベースとした改善を取り入れ、最大100のイメージを同時に検出可能とのこと。こうして周囲のより複雑な環境でも認識し、ARオブジェクトを重ねられます。

(参考)AppleVenture Beat


VR/AR/VTuber専門メディア「Mogura」が今注目するキーワード