Sponsored Contents

最新記事

Image credit:
Save

Pixel 3の「オンデバイスAI」は何をしているのか、Googleが解説~「世界中のスマホが自分を強化する」新技術も

攻殻機動隊の「タチコマ」みたい

石井徹(TORU ISHII), @ishiit_aroka
2018年11月21日, 午後03:50
92シェア
0
92
0
0

連載

注目記事

HomePodレビュー。Apple MusicとSiriが家に来るスマート高音質スピーカー

HomePodレビュー。Apple MusicとSiriが家に来るスマート高音質スピーカー

Ittousai, 8月13日
View
 ソニー「WF-1000XM3」が売り切れまくる理由に納得。ノイキャン性能爆上げイヤホンでした

ソニー「WF-1000XM3」が売り切れまくる理由に納得。ノイキャン性能爆上げイヤホンでした

View


11月21日、Googleがスマートフォン Pixel 3 に搭載する"オンデバイスAI"の説明会を開催、米GoogleからAI研究者ブレイス・アグエラ・イ・アルカス氏がビデオ通話で出席し、最新技術の概要を紹介しました。

"AI(人工知能)"をものすごくざっくりと説明するなら、「膨大なデータをコンピューターに学習させることで、ある情報が、何者なのかを判別する"審判"を作る」技術となるでしょうか。その使い方の例としては、写真の中のネコを「これはネコだ」とコンピューターが判断する "被写体認識" といったものがあります。

この「コンピューターがネコを"ネコ"だと判別する」というのは実は難しいことです。たとえば同じネコでも三毛猫に黒猫に茶トラと色も様々な種類があります。さらに1匹のネコでも全身と横顔では写り方が違います。コンピューターは本来、こうした物体を"同じもの"と認識するのが苦手です。

初期の画像認識AIは、スーパーコンピューターのような巨大なシステムに、数千枚以上の写真を読み込ませて、ネコをネコだと判断する機能を実現していました。それが今日では、半導体とAI技術の急速な進化によって、画像さえあれば家庭用のパソコンでも画像認識AIの判別モデルを作成できるようになっています。
Pixel AI
▲ブレイス・アグエラ・イ・アルカス氏

賢くなっていくスマホ「オンデバイスAI」

"オンデバイスAI"とは、オンデバイス、つまり端末上でAIを学習させる技術のこと。Googleが手がけたAndroidスマートフォン「Pixel 3」ではオンデバイスAIのために開発された専用チップが搭載されています。

オンデバイスAIでは、端末上で得られたデータをもとにAIが学習処理を行うため、データそのものをGoogleが管理するサーバーに送る必要がありません。これには「高速で処理できる」ことにくわえ「プライバシーを保護できること」という2つの利点があります。

Pixel 3のカメラでは、撮りたい瞬間の写真を自動で選ぶ"Top Shot"機能でオンデバイスAIの処理速度が活用されています。また、アベンジャーズなどのキャラクターと写真が撮れるAR機能"Playground(ARステッカーのリブランド)"を実現するのにも、オンデバイスAIの高速処理が欠かせなかったといいます。

Pixel AI
▲Pixel 3のTopShot

Pixelには、カフェなどで流れている音楽をロック画面に表示する機能"Now Playing"も搭載していますが、この機能では、スマートフォンが周囲の音を常に録音している必要があります。仮に、この録音そのものがGoogleのサーバーに送るとすると、プライバシー保護の観点から問題となりえます。実際には端末上でオンデバイスAIが「どんな曲が流れているのか」を識別するためのみに使われている、とアルカス氏は説明します。

Pixel 3のオンデバイスAIによる"学習"がどのタイミングで行われているのかについて、アルカス氏は睡眠学習に例えて説明しました。人が寝ている時間、すなわちスマホが充電されていて、使われていないとき(=処理能力が余っているとき)に自動で行われるといいます。

Pixel AI

世界中のスマホが自分を強化する「フェデレーションラーニング」とは

アルカス氏が率いる研究チームでは、オンデバイスAIを活用した一歩先の技術"フェデレーションラーニング"の研究も進めています。フェデレーションラーニングは「学習モデルを共有する技術」です。

オンデバイスAIでは、各端末で独自に学習データを生成します。この手法では処理速度やプライバシー保護というメリットがあるものの、スマートフォン1台から得られるデータ量は限られているため、判別精度の向上にも限界があります。

そこで、データそのものではなく、オンデバイスAIで得られた学習モデルをクラウドサーバー上で送付し、大量の端末から得られたモデルを総合することで、より精度の高いモデルを作成しよう、というのがフェデレーションラーニングの考え方です。

Pixel AI

オンデバイスAIとフェデレーションラーニングを併用することで、プライバシーを保ちながら、ユーザーに最適化された精度の高いオンデバイスAIを提供できる、とアルカス氏は説明します。

Googleは現在、文字入力システムGboardのAndroid版で試験提供中の"スマート検索"機能で、このフェデレーションラーニングの試験運用を行っています。"スマート検索"は、Gboardの左上にある「G」ボタンが、入力している状況によって、画像検索やGIF検索のアイコンに変わるという内容。

アルカス氏の説明によるとスマート検索では、ユーザーの反応を元に「スマート検索で変化した内容が実用的だったのか」をオンデバイスAIで"学習"し、そのモデルをGoogleのサーバー上で共有しているそうです。

Pixel AI
▲Gboardの「スマート検索」
アルカス氏は「半導体の進化には限界があるが、ニューラルネットワークベースのAI技術には限界がない」とその可能性を語っています。さらに、フェデレーションラーニングを用いた技術は、Gboard以外のあらゆる分野で活用していくことになるだろうという見通しを示しています。

また、アルカス氏の"個人的な予測"として「8年後にはおそらく、端末に搭載されるトランジスタの99%が、ニューラルプロセッシング(AIによる処理)を行うためのトランジスタに置き換わっていくだろう」という見解を紹介しました。




「TechCrunch Tokyo 2019」11月14日、15日に開催



広告掲載についてのお問い合わせはad-sales@oath.com までお知らせください。各種データなどはこちらのメディアガイドをあわせてご覧ください。

Source: Google
92シェア
0
92
0
0

Sponsored Contents