日本アイ・ビー・エムとソフトバンクがIBM Watson日本語版の発表会を開催しました。そこで見聞きした「人工知能(AI)のような何か」がガジェット方面に及ぼすインパクトについて考えてみます。申し遅れましたが、私は星暁雄と申しまして、ふだんはITジャーナリストをしています。今回の編集長からの要望は、来月や来年のガジェットではなくて「10年後」を考えてみることです。なので、かなりかっ飛んだ話になるかもしれません。



2016年2月18日に開催されたIBM Watson日本語版の発表会で特に具体的だなと感心したのは、日本のスタートアップ企業のカラフル・ボードが見せたデモです。「春もののシャツ」「もっと明るい色を」といったいかにも人間くさい指示により商品を選ぶ様子を見せてくれました。例えばですが、スマートフォンに向かって「壁紙を春っぽく」とか「もっと明るい壁紙に」と指示すると、「いいように」してくれる水準の「人工知能(AI)のような何か」は今そこにあるということなんです。

ガジェットと「人工知能のような何か」というお題では、みんな大好きAppleのSiriを忘れる訳にはいきません。Siriに対抗したり、対抗していなかったりする何かといえば、Google Nowとか、MicrosoftのCortanaとか、日本マイクロソフトの女子高生AI「りんな」、このあたりがすぐに思い当たります。NTTドコモのサービス「しゃべってコンシェル」も立派な音声認識アシスタントです。

こうしたサービスは、一つ一つ異なる定義付けと名前を持ってます。IBMは、Watsonのことを決して「人工知能」とか「AI」とは呼ばず、コグニティブコンピューティングとか、コグニティブサービスと呼びます。そう聞くと、堂々とAIと呼んでいる「りんな」の方が賢いような印象を受けるかもしれませんが、それは気のせいです。こうしたサービスに関して、私が密かに温めている関心事は「Google人工知能はいつごろリリースされるんだろう?」ということです。Googleの2人の創業者の目的は「AI(人工知能)を作ること」だったんですから。

こうした「人工知能のようなサービス」は、どこを目指しているのでしょう? 最初からコンシューマ向けサービスを狙うSiriは、ユーザーと親しみのある関係を築くことに相当のエネルギーを費やしていますね。一方、WatsonはB2B向けです。つまり「実用」方向に寄せて努力をしています。Watsonの狙いは、構造化されていない大量の知識から必要な知識を検索する手段を、例えばスマートフォン向けサービスの提供会社を含む多くの法人向けに提供することです。銀行、製薬会社など多くの分野でWatsonに取り組んでいる会社が現れています。

Watsonの利用が十分に進めば、Watsonを使った賢い音声認識アシスタントの機能があちこちのスマートフォンアプリとか、ひょっとしたらスマートウォッチアプリとか、スマートグラスアプリとか、人型ロボット上のアプリとか、そういった形で組み込まれるでしょう。要するに、あらゆるガジェットで音声認識アシスタント的な機能が普通に使えるようになる可能性があるんですね。

さまざまなガジェットで音声認識アシスタントとか「人工知能のような何か」が普通に使えるようになったらどうなるでしょう? 10年くらい後になると、自動運転の電気自動車で「もっと寝心地がいい運転をしてくれ」と指示を出したり、カメラに向かって「美人に撮るように」と指示したり、ドローンに向かって「付いてこい!」と指示したり、それぐらいは普通にできてそうですよね。そういえばGoogle Glassも音声コマンドで動く仕組みでした。

10年後のガジェットは、機械が人間を観察するために作られるだろう

10年後のガジェットの話でした。

それぐらいの時期になると、ガジェットに「人工知能的ななにか」「音声認識アシスタント的ななにか」が統合されていることはごく普通になっているのではないでしょうか。OSサービスのような形でどんなアプリでも使えるし、例えばガジェットの設定をする際にも使えるような、自然に統合された形になっている可能性が高いと思います。

さらに、その先はどうなるか。「シンギュラリティ(技術的特異点)」論者の人たちなら「そろそろ人工知能が人間の知能を上回る頃だ」と言うかもしれませんね。

シンギュラリティというのは、人工知能の進化が、過去のムーアの法則のような「指数関数的な上昇」を続けた場合、つまり爆発的なカーブを描いて進化した場合、人間の能力をある時点で超えるだろうと予想する人々が使う言葉です。

人間と人工知能の能力差を考えてみましょう。すでに発見されたアルゴリズムに従った計算の能力では、ずいぶん前から機械の方が人間より能力が上です。足し算、掛け算、ソート、素数表を作る、円周率を計算するといった計算は機械にやらせるのがもう普通ですよね。直観や洞察が必要なチェス、将棋、最近では囲碁のような分野でも、コンピュータはかなり強くなっています。

ここで、アルゴリズムの発見や改善でも機械の方が人間よりも能力が高くなったら、何が起こるでしょうか。機械に組み込むアルゴリズムを、機械が作って改善できるようになります。

今、研究開発が盛り上がっている機械学習という分野は、パターン認識やクラスタリングのためのアルゴリズムの発見や改善を自動化する技術の一種といえます。知識を獲得し、アルゴリズムを発見する技術が十分に高度になったとき、機械が機械を進化させてる時期が来るかもしれません。

このような形で「機械が、人間の手を借りずに機械を進化させられる」時点がきたら、それがシンギュラリティです。

書籍『人工知能は人間を超えるか』の中で著者の松尾豊氏は「シンギュラリティというのは、人工知能が自分の能力を超える人工知能を自ら生み出せるようになる時点を指す」と定義しています。

人工知能がこの領域に達すると、ガジェットを人間のアシスタントと呼ぶのはさしでがましい感じがしてきます。人間より優れた知能を持つ人工知能が、人間を観察したり時々は助けてくれたりする窓口として、ガジェットが機能するようになるんじゃないでしょうか。今でも、私たちがGoogle検索をしたり、Siriと会話を試みているとき、彼ら彼女らもまた、私たちがどのような知識に関心を持っているのかを観察して少しずつ学習しているはずなんです。

チューリングのタマネギの皮

ここで話が変わるのですが、スマートニュース(SmartNews)のオフィスで開催されたイベント「アラン・チューリングの銀河系」のことを思い出しました。スマートニュースのオフィスには、「チューリング」をテーマにした「本棚」があるのですが、そのお披露目のイベントでした──「本棚と人工知能とガジェットにどういう関係があるんだ! お前は何を言っているんだ!」と言われそうですね。



散文的に言い直すと、機械学習に業務として取り組むエンジニアを多数抱えるスマートニュースが、人工知能研究の始祖であるアラン・チューリングに関する文献を体系的に収集した図書室を作った、ということなんです。

森田真生さんこのイベントのハイライトは、独立研究者の森田真生さんによる講演でした。ニコニコ学会βふうに言うと、森田さんは在野の数学研究者です。森田さんとスマートニュース創業者の鈴木健さんは、現代アートそのもののような、あの三鷹天命反転住宅で一緒に暮らした仲だそうです。

アラン・チューリングという人は数学者で、現代的な意味でのコンピュータを初めて提唱した人です。日本で2015年3月に公開された映画『イミテーション・ゲーム/エニグマと天才数学者の秘密』では、第2次世界大戦中のドイツのエニグマ暗号解読の物語を中心に、チューリングを描いていましたね。映画の中でもチラリと触れていましたが、チューリングは人工知能研究の元祖でもあります。晩年のチューリングは「どうやったら脳を数学的に理解できるか」に興味を持っていました。

森田さんの講演では「人間の心はタマネギの皮」のようなものだという考え方が紹介されました。チューリングが活躍した時代、計算とは人間が行う知的行為でした。チューリングは、計算という人間の行為を抽象化して、チューリング・マシン、つまりコンピュータの理論的なご先祖様を考え出しました。

もちろん、普通の人間が思考するときには、直観とか洞察と呼ばれている、ブラックボックスで中身が分からないプロセスを多用しています。チューリングは、中身が分からないものは保留して「計算」だけをモデル化したんですね。

チューリング・マシンを実現した機械、つまりコンピュータにより、アルゴリズムとして記述できる計算は機械で実行可能になりました。このように人間の知能の活動を、理解できた部分だけモデル化して機械に置き換える試みを繰り返していったとき、最後に何が残るのか、それとも残らないのか?

タマネギの皮を1枚ずつむいていくように、人間の知能に取り組んで「皮をむき続ける」ことだけが科学的な態度であるとチューリングは考えたのだ──と森田さんは説明しているんですね。

今、私たちが目にしている「人工知能のような何か」は、こうしたタマネギの皮の断片です。日本の研究者たちが「全脳アーキテクチャ」という取り組みをしているのですが、これは人間の知能について「すでに分かったこと」を持ち寄って、統合的な「人工知能のような何か」を作ろうとする試みです。

人間となんとなく会話できるとか、自然言語による問いかけを分析して、最もありうる検索結果を返すとか、そのようなプロセスを知能を呼ぶことに抵抗がある人はいるかもしれません。では、タマネギの皮の中にあって、結局取り出せないものがあるのか、ないのか。

人間の知能というタマネギの皮をむいていったとき、「どこまでいっても機械ではできないこと」が本当にあるのかどうか。NHK教育テレビの「大科学実験」という番組の決めセリフを借りると「やってみないとわからない」。だからみんな実験しているんですね。

ガジェットが人間と関わるモノである以上、「タマネギの皮」の中身にある「何か」は、常にガジェットの設計に大きな影響を与えます。私たちはガジェットを見て「クール!」だと思ったり、「イケてる!」と思ったり、「ほしい!」と思ったり、「ウケる!」と感じたりします。そのとき人間の知性の内側では何かのプロセスが働いています。それは機械で再現可能なものなのかどうか。

私たちの文明がシンギュラリティに本当に到達できるなら、私が見てみたいのは、機械(人工知能)がタマネギの皮をむいていくように人間の中身を解明していったとき、最後に何が残るかです。こうしてタマネギの皮をむく過程で、コンピュータが発明されました。この先、どんなものが登場するのか。未来のガジェットは、機械が人間を理解するために作るものになるのではないかと思います。なおかつ、機械が人間を(ある段階まで)理解した結果生まれたなにか、になるんじゃないでしょうか。
Watsonと「チューリングのタマネギ」を手がかりに10年後のガジェットを考える
広告

0 コメント

広告