Sponsored Contents

最新記事

Image credit:

深く学習(しなさい) : 情熱のミーム 清水亮

かな漢字変換、ワールドワイドウェブ、SLAM、深層学習はいずれも人工知能技術である。深層学習とそれ以外をどう使い分け、どう見分けるか

清水亮 (Shi3z) , @shi3z
2017年7月6日, 午後08:10
392 シェア
128
89
0
175

連載

注目記事

Amazon Echo Dot速攻レビュー。スキル試行は最初のスマホ的な楽しさ、日本語周りは意外な弱点が

Amazon Echo Dot速攻レビュー。スキル試行は最初のスマホ的な楽しさ、日本語周りは意外な弱点が

View

人気記事



再び、巷は人工知能ブームである。

先日、東京ビッグサイトで開催された「AI・人工知能EXPO」というイベントに、先日、東京ビッグサイトで開催された「AI・人工知能EXPO」というイベントに、4万人を越える来場者が訪れた(主催者発表)。

「AIと人工知能は同じ意味だからその名前は変だ」といくら指摘しても、頑なに頭痛が痛く腹痛が痛い表現を変えようとしないリードエグジビションジャパンさんには相当な信念と覚悟をもって「AI・人工知能EXPO」というタイトルを掲げているのだろうと思う。

そのタイトルを反映してか、予想の何倍もの来場者が詰めかけたにもかかわらず、満足度は総じて低いようだった。

筆者の知人も、そのまた知人も、「人工知能を見に来たはずなのにBotとか検索エンジンとかを見せられた」「人間の棋士に勝ったというすごい人工知能はどこにあるの?」と思っても、実は会場のどこもないというおかしな事態が起きているのだ。

なぜこんなちぐはぐが起きるのかというと、リードエグジビションジャパン社が主催するイベントは基本的に全てトレードショウであり、名前と裏腹に人工知能技術の祭典ではなく、人工知能技術の社会実装をする会社と、それを望む会社のマッチングのためのイベントなのである。

そして深層学習はまだできたてほやほやなので、それを具体的に社会実装できている例はほとんどない。実例がほとんどないのにトレードショウをやるとどうなるか、仕方ないので既存の人工知能技術と呼ばれる一連の「昔ながらのAI」の展示会になってしまうのである。



昔ながらのAIにも、いいところはたくさんある。かな漢字変換は昔ながらのAIがそのまま活きているいい例だ。これもそのうち深層学習に取って代わられるかもしれないが、昔ながらのAIのメリットは昔からあるためメモリや計算能力をあまり使わないことだ。この「軽さ」は大きなアドバンテージである。深層学習は学習そのものも推論も今のところは資源を使いすぎる。

資源が限られていたり、クラウドに接続できなかったりする状況では、昔ながらのAIは威力を発揮する。
反対に、資源が潤沢に使える状況では深層学習の方が精度も性能も高くなる。

スマートフォンや自動車など、ユーザーやデータ取得のための最前線にある機械を「エッジ(端)」と呼ぶが、エッジ側での推論をサポートするためにNVIDIAはJetsonシリーズを開発しているが、まだまだ実用的に使えるレベルに行くまでは時間がある。

とはいえ、推論は整数でもそこそこの精度が出せるようになってきたことが知られていて、AppleのCoreMLはその意味では推論に特化したフレームワークになっている。

しかし、学習に関してはどうしてもエッジでやるのは難しくて、これはクラウドに任せるしかない。
昔ながらのAIの場合、学習もエッジでできる場合が多い。計算能力とメモリを深層学習ほど消費しないからだ。

これは、昔ながらのAIは、それだけ単純な計算しかしていないと言うこともできる。深層学習の世界でも計算量をどうやって減らすかは大きな関心事になっていて、計算量と精度のトレードオフを実現するMobileNetなどの実装も出てきた。

MobileNetを使うと、CPUでも19ミリ秒で一枚の画像を推論できる(Intel AVXを使用)。3ミリ秒で完了するGPUに比べるとまだ遅すぎるが、それでも一つの希望の光が見えたと言える。

他にも、画面内の複数の物体位置推定を行うSSD(Single-Shot multi Detection)というタスクにおいて、従来手法に比べてMobileNetでは30倍高速化するなどの成果が報告されている。

SSDと似たタスクで、SLAMという主にARで利用される手法がある。SLAMとはSimultaneous Localization and Mapping(位置検出とマッピングを同時に行う技術)であり、従来は機械学習手法をもとに画像の中の特徴点同士を比較して空間認識を行うのが主流だった。

この領域にも深層学習は進出してきていて、高い成果を挙げている。もはや深層学習が進出していない領域の方が珍しいほどだ。

ある技術が深層学習を用いたものかどうか、素人でも簡単に判別する方法は、「それはだいたい何層のモデルですか?」と聞いてみることだろう。深層学習以前のモデルの場合、「そもそも層とかないんですよ」と返されるかもしれない。もしそうなら、それは統計的機械学習であって深層学習ではない。深層学習ならば通常は4層以上のモデルを持っている。ただし、「RNN(リカレントニューラルネットワーク)です」と答えられる可能性もある。RNNは一層でも動作するがあるがれっきとした深層学習技術だ。

さらに「この技術は論文になっていますか?その論文はarxivにありますか?」と聞いてみるのもいい。いまどき、論文になっていない深層学習技術はほとんどない。よほどの事情がない限り、隠したりする必要がないからだ。arxiv(アーカイブ)とは、コーネル大学図書館のアーカイブを意味する。今はそこが世界の深層学習コミュニティのハブになっているのだ。

もちろん会社によっては論文を書く暇がなかったり、論文化するほどでもなかったり、論文化するとライバルにそのまま真似されてしまうから敢えて公表していないケースもある。そういうときも原理を聞いてみればだいたいウソかホントかはわかるはずだ。

どんな場合でも「その問題は深層学習で解くのが適切か」という質問についてはまず考えなくてはならない。しかし今注目を集めている人工知能関連の成果は全て深層学習によるものだという事実を踏まえれば、今からなにか人工知能技術を導入しようとするときにいの一番に深層学習を意識するのは当然で、それをしないコンサルタントがあるとすれば、彼らは深層学習へのキャッチアップが遅れているのだ。

新しいツールが生まれた時、新しいツールをまず試してみたいと思うのは人間の本能であり、「深層学習でなにかやりたいんですけど」という依頼を受けた時にちゃんとした提案が出せず既存技術の寄せ集めで誤魔化そうとするのはプロのコンサルタントとは言えないのではないかと筆者は思う。

そういうコンサルタントは、もっと深く学習した方がいい。
392 シェア
128
89
0
175

Sponsored Contents