Sponsored Contents

Mobileの最新記事

Image credit:
Save

GoogleマップのARナビ機能、ストリートビューのデータや機械学習の活用を解説

吹雪や豪雨の中でも機能するようテスト中とのことです

Kiyoshi Tane
2019年2月13日, 午後02:50 in Mobile
79シェア
0
79
0
0

連載

注目記事


現在テスト中と報じられたGoogleマップでのARナビゲーション機能につき、Googleがストリートビューのデータや機械学習の活用といった技術的な側面を詳しく解説しています。

ナビゲーションする上での一貫した課題は、「正しい方向に進む」ということ。しかし、GoogleマップほかGPSを利用する地図アプリで、特にビルが林立する大都市圏では、物理的な限界から特定が困難となっています。

この問題に対して、Googleは「グローバルローカライゼーション」すなわちVPS(センサーや映像から周辺の空間と自分の位置を特定する技術)とストリートビューを組み合わせた手法で取り組んだとのこと。いわばスマートフォンのカメラをユーザーの「目」として、どちらの方向に行けばいいかを可能にしたと述べられています。

まずビルの密集する地域でGPSが上手く機能しないのは、「複数のGPS衛星から電波を受信する」という原理的に避けにくいこと。ニューヨークなどの建物が密集した都市環境では空の視界が悪く、建物から反射する信号もあるため、マップ上の現在地はなぜか道路の反対側や数ブロック先に表示されてしまう現象も珍しくありません。

map
GPSにはもう1つ「デバイスの位置を特定できるだけで、向きは特定できない」という弱点があります。モバイル機器内のセンサーが地球の磁場や重力場、および相対的な動きを測定しておおよその向きを概算できるものの、自動車やパイプ、建物などの磁性体によって簡単に干渉を受けるため、最大180度もの誤差を生じる可能性もあります。

そこでGoogleは、モバイル機器のカメラが捉えた画像により場所と方向を特定するVPSを補完的に使用したとのこと。

その仕組みは、まず周囲の画像を撮影し、建物や橋の輪郭などキーとなる視覚的特徴を解析することにより、大規模かつ高速に検索可能な視覚的インデックスを持つ地図を作成。そうしたデバイス内のイメージをVPSインデックスと比較して、デバイスをローカライズ(現在地と方向を特定)する述べられています。

要するにスマートフォン内にカメラが捉えた画像から周辺の地図を生成し、それをより大きな地図の索引と照らし合わせるということ。つまり、他に照合できる高品質かつ広範囲の世界的なイメージが必要とされます。

照合先となる巨大で高品質な世界イメージが、Googleマップでおなじみのストリートビューというわけです。世界中の93カ国以上から収集およびテストされたデータが、三角測量に使える何兆もの基準点を提供し、正確なデバイスの位置の決定と目的地へのナビに役立つことになります。
map
このアプローチは理論的には成立していますが、実際にはうまく機能しにくいもの。なぜなら、たいていストリートビュー画像が収集された数ヶ月前と現在とでは、風景が様変わりしているから。たとえば木々は季節が変わったり、あるいは風が吹けば細部が変化するというぐあいです。

スマホ内の地図画像とストリートビューを一致させるには、変化する一時的な部分を除外し、時間の経過とともに変化しない永続的な構造に焦点を合わせる必要がある--その区別をさせるために、機械学習を活用したとされています。

こうして得られた現在地と進むべき方向を、GoogleのARフレームワークであるARCoreにより、Googleマップ上に重ね合わせ表示しているとのことです。
AR
すでにデモを見る分には十分な結果を出しているようですが、やるべき重要な作業があると述べられています。大きな課題の1つは、このARナビを夜遅く、吹雪の中、または豪雨といったあらゆる場所、あらゆる条件で機能させること。

それを実現するために、現在テスト中--ということで、将来的には遭難時の命綱になる信頼性を期待したいところです。




夏だ!フリマだ!エンガジェ祭だ! 8月10日、11日無料イベントを開催



広告掲載についてのお問い合わせはad-sales@oath.com までお知らせください。各種データなどはこちらのメディアガイドをあわせてご覧ください。

Source: Google
関連キーワード: ar, arcore, google, GoogleMaps, gps, Mobile, vps
79シェア
0
79
0
0

Sponsored Contents