アップルは開発者会議WWDC2020にて、iOSとiPadOSにおけるAR機能の新バージョン「ARKit4」を発表しました。周囲の環境をより正確に認識し、現実とシームレスに重なるARや、特定のスポットに紐付けされたオブジェクトを実現します。
同社は2020年3月に「ARKit3.5」をリリースしており、これに次ぐアップデートとなります。「ARKit4」は「ARKit3.5」同様、新型iPad Proの「LiDARスキャナ」に対応します。
「ARKit4」の特長
「ARKit4」の主な特徴は以下の通りです。
デプスAPI
LiDARスキャナのシーン認識機能により、周囲の情報をピクセル単位で収集します。これを3Dメッシュデータと統合。実際の物との重なりを正確に表すなど、より現実に馴染むバーチャルオブジェクトを生成できます。LiDARスキャナを搭載する新型iPad Proの11インチ、12.9インチモデルが対象です。
ロケーション・アンカー
「Location Anchors(ロケーション・アンカー)」は、有名なスポットといった現実の世界にARオブジェクトを置く機能です。緯度経度、高度を指定した場所にARを紐付けできるため、ユーザーはこのオブジェクトに周囲を歩いたり、好きな角度から見ることが可能です。 iPhone XS、iPhone XS Max、iPhone XR以降のモデルが対象、一部の都市のみでの展開です。
フェイス・トラッキング機能の拡張
A12以降のチップを搭載する全てのモデル(新型iPhone SEを含む)で、フロントカメラを使ったフェイス・トラッキングが実現します。最大3人までのユーザーの顔を追跡し、スナップチャットのような顔へのARエフェクトの精度を上げます。
モーション・キャプチャも強化へ
また併せて、ARKit4ではモーション・キャプチャ機能も強化されます。フロントカメラでユーザーの顔を、背面のカメラで周囲を同時に捉えることができ、同時に処理します。機械学習をベースとした改善を取り入れ、最大100のイメージを同時に検出可能とのこと。こうして周囲のより複雑な環境でも認識し、ARオブジェクトを重ねられます。
(参考)Apple、Venture Beat