Sponsored Contents

deeplearningの最新記事

Image credit:
Save

例大祭 諭の部屋:グノシー吉田さんとのAIトーク「ロボットが人間を支配しちゃうとかはない」

Takuya Nagata
2015年6月8日, 午後02:10 in Deeplearning
76シェア
0
76,"likes":17
0

連載

注目記事

折り畳めてとっても軽い!1万2000円の小型ジンバル「VLOG Pocket」はYouTuber入門におすすめ(小彩 楓)

折り畳めてとっても軽い!1万2000円の小型ジンバル「VLOG Pocket」はYouTuber入門におすすめ(小彩 楓)

小彩 楓, 11月17日
View
世界初の完全分離骨伝導イヤホン「earsopen PEACE」でネクストレベルの「ながら聴き」を体感

世界初の完全分離骨伝導イヤホン「earsopen PEACE」でネクストレベルの「ながら聴き」を体感

View

5月30日に開催した「Engadget 例大祭」より。ご紹介するのは元月刊アスキーの編集長で現在は角川アスキー総合研究所の取締役主席研究員を務める遠藤諭さんによるトークセッション「諭の部屋」。招いたゲストは、世に登場するや瞬く間に多くのユーザー数を獲得した無料ニュースアプリ「Gunosy(グノシー)」を提供するGunosyの共同創業者であり開発本部DAUチームマネージャーの吉田宏司さん。

テーマは「教えてディープラーニング」。一体どのような話が展開されたのでしょうか?


まずは人物紹介から。遠藤さんは自身を「ガジェッター」「ドロナー」「親指シフター」「何本かなのフリーソフト作者」「『東京カレーニュース』の主宰者」などのワードで紹介。一方の吉田さんは1988年生まれの26歳で、東京大学大学院所属時代に友人と共にグノシーを作り、起業し、現在もGunosyにおいて開発に携わっています。グノシーのアルゴリズム構築などを担当し、今回のAI、ディープラーニングといったテーマにはうってつけの人物。




吉田さんが「研究室自体が人工知能を扱っているところだった」と言えば、遠藤さんは「どうりで他のニュースアプリよりも賢いと思った」と返し、出足から好調。お二人は初対面とのことで、まずは遠藤さんがAIに関心を持ったキッカケや背景として自身の経験やAIの歴史から気になる点を紹介していき、徐々に本題へと迫っていきます。

最初に紹介したのは学研の「大人の科学マガジン」(※2009年のVol.24です。Amazon.co.jpで見るとプレミアがついて8000円超え! になってますが一応買えます)についていた4bitマイコン。プログラム用のメモリがたった40バイト(4bitなので80ニブル=80命令)しかなかったのに「アソシアトロン」や「パーセプトロン」みたいな、パターンを覚えるプログラムを書けちゃった。それで、知能ってなんだろうと思ったそうです。「『いじめる/いじめないゲーム』といって、僕が次に『いじめる』と『いじめない』のどちらを言うかを当てるゲームがあるんだけど、しばらくプレイすると、プログラムが結構当ててしまって人間はほとんど勝てなくなってしまう」のだとか。



遠藤さん、今度は「マッチ箱コンピューター」について。三並べゲーム(「#」の字のマスを書いて、順に〇×を入れていって3つそろえるゲーム)のアルゴリズムの1つにマッチ箱コンピューターというものがあり、数多くのマッチ箱を用意して、それぞれに次に打つべき手を書いておく。勝ったときのマッチ箱にはご褒美としてビーズを入れて、負けた箱からは一定のルールで抜いていく。これを繰り返すとマッチ箱コンピューターが次第に強くなり、やはり人間が勝てなくなってしまうそうです(イベントのときには言い忘れたそうですが、考案したチューリング研究所のDonald Michie氏にインタビューしたことがあるとのこと)。



というような話に続き、本題の「教えてディープラーニング」。

ディープラーニングや最近のAIについて、吉田さんは「2013年から2014年あたりから盛り上がってきて、IT系の人は知っているレベルになってきたと思います。ここまでの話で出てきた人工知能だと、問題やルールを予め人間が全部決めて、パターンを覚えさせるというものでした。それだと複雑な問題には対応できない。でも最近のAIだと、大量のデータを入力して、正解か不正解かを教えます。間にある、どういう理由から判断を下すか、という部分は機械に任せる、そういうものになっています」。



例えば、記事の例でいきましょう。「カレー」という言葉が入った記事をカテゴライズするときに「グルメ」というカテゴリだと判断する際、80年代くらいのプラグラムだと、「カレー」という言葉が入っていれば「グルメ」だということを人が決めていました。しかし、今では文章をまるごと入力し、その結果が「グルメ」なんだと教えてやれば、コンピュータが自ら判断のルールを学んでいく、というものになっています。

例は画像(写真)にも及びます。「例えば耳がとがっていたらネコ(吉田さんが『ネコ』と言う瞬間、遠藤さんは『エイリアン』と言いましたが、人によって連想するものが全く異なるようです)」と判断するとき、実際にどのような特徴に着目し、見分ければいいのかを人間が細かく教えなくても済むのがディープラーニングなのだということです。

ディープラーニングの場合はどういう特徴があればウサギ(ここからはネコじゃなくウサギ)だと判断しろ、ということは規定しません。ウサギの画像を沢山集めてきて、これはウサギだと指定するだけで、コンピューター自身がそういう画像はウサギだと判断してくれます。人間が判断基準を与えなくても、データと結果だけを与えれば、自ら判断ルールを学んでいってくれるわけです。

遠藤さんが気になったのは「最終的にデータとして、どうやって持つの?」という点。

「ウサギの耳っぽい画像を多く集めて、これはウサギの耳だと教える。白くて長い耳をウサギの耳だよという風にデータを持つんじゃなくて、うやむやのまま持つってこと? 何か変換したり、フィルターを掛けてとかするの?」

説明が難しいのか、「.そうですね......」と言葉に詰まる吉田さん(会場から笑い)。「そうですか......」と遠藤さん(さらに笑い)が続けて「なるほど。難しいですね......。そうですか。そういう技術は今、どんな風に使われているんですか?」

スパッと話は切り替わり、どういう技術で使われているのかと遠藤さんは聞きます。

「Googleが、YouTubeからネコの写真を持ってくるとか、MicrosoftがSkypeでやってるリアルタイム翻訳とかでも活用しているようですよね。昔からある画像認識とか翻訳とかの精度がディープラーニングで上がっていると思います」(吉田さん)

なるほど。そういえばと取り出したスライドが、電気通信大学の宮脇陽一准教授(先端領域教育研究センター、工学博士)が取り組んでいるという人間の脳をMRIで読み取り、マッピングデータを得ると、人が見ている文字を読み取れてしまう、というもの(ASCII.jpの該当記事)。これも機械学習のおかげで実現できている、とのこと。先ほどのウサギの写真の話と同じで、例えばカタカナの「ア」を見たときの脳の活性化状態というものがあり、そこから判断できるのだという。とはいえ、なぜ「ア」と分かるのか正確なロジックは説明できません。

遠藤さんが、第二次人工知能ブームのエキスパートシステムでは、なぜそうなったか説明するようになっていたけどあのお約束はもうどうでもよくなったんですか? と質問します。

すると、吉田さんは「説明できるような問題は80年代にやり終わっていて、今は説明できないような問題に入っていると思います」とのこと。





吉田さんは「(人工知能の能力について)人間に取って代わる何かになるとかよりは、今まで人手とコストを掛けていたものがちょっと楽になるかな、くらいのものです。産業革命と似ていると思っていて、例えばリコメンドの話だと、僕のことをとてもよく知っている人レベルでの推薦はできないけど、好みなどを30分くらい話した人くらいのレベルでなら推薦できるようになっている。以前だと1人1人にレコメンドする人を付ける必要がありましたけど、今はある程度のリコメンドならプログラムでできるようになっています」と。

ここからAIやロボットって怖い? という話に移り、ロボットやAIが人間に取って代わる時代が2045年あたりに来ちゃうんじゃないかと。吉田さんはそもそも「人間に取って代わるものなんて作らなければいいんじゃないかと」とコメントしますが、遠藤さんは「だって儲かったら作るんじゃない?」と。まあ、ロボットやAIが人間に取って代わるかもしれない、という話はよくありますし、そういう現実がいつか訪れそうではありますよね。

吉田さんがいた研究室(東京大学松尾研究室)の先生(松尾豊准教授)はそういう時代が来ると言っていたそうです。ただ、吉田さん曰く「盛り上がらせるために言ってたみたいなところもあります」とのことで、遠藤さんは「日経新聞みたいな感じですね」と返しました。

終盤、ビッグデータの使い方の怖さについて吉田さんは「遠藤さんが5年後に犯罪を起こす確率が95%です、みたいな使われ方の怖さはありますよね」と。でも、ロボットが来て遠藤さんを支配しちゃうとかはないと思う、とのこと。



ドローンやウェアラブル端末にも話は及び、ハート型PHSを作っているエイビットの社長さんに会ったときのこと。「うちもウェアラブルやってるんですよ」と言われて驚いたそうです。足に嵌めるタイプの製品で、南米に輸出しているようです。足に嵌めるといえば囚人がしているものがありますよね。将来的に、油っぽいものを食べようとするとNTTコミュニケーション科学基礎研究所の「ぶるなび」みたいに、モーメントが働いてハシが動かなくなるとか、そういうウェアラブル端末も面白いかもとのこと。実際、アルコール中毒を治す訓練で、酒を手に取ろうとすると、手をずらす、という訓練があるそうで、効果があるのだとか。そういう、強制的な感じでのウェアラブル端末もあるかもしれません。

モバイルヘルスを全員が使うようになると、人類が滅びたことを知るのもクラウドで動いている人工知能になるという話も。確かに、皆がウェアラブル端末をして生活するようになれば、そうなりますよね。突然、全員からのデータが来なくなってしまったら......人類滅亡を知るのは、それにつながった人工知能かもしれません。

さまざまな話であっと言う間の1時間でしたが、今後のAI、ディープラーニングがどのように進化していくのか、そしてグノシーがどのように進化するのかも注目したいところですね。



広告掲載についてのお問い合わせはad-sales@oath.com までお知らせください。各種データなどはこちらのメディアガイドをあわせてご覧ください。

76シェア
0
76,"likes":17
0

Sponsored Contents