人工知能によって仕事がなくなる?倫理的な問題は? 

  • このエントリーをはてなブックマークに追加
  • このエントリーをはてなブックマークに追加

機会か、脅威か? ~人工知能が変える生活、ビジネス、社会~[2]

鈴木:今日は松尾さんにディープラーニングのお話もしてもらいたいと思うが、ディープラーニングでネコの画像を認識したという有名な研究成果があった。あれも1億円ぐらいのお金をかけたのだろうか。

松尾:1億円をかけたけれども、翌年はそれが30万でできるようになった。アルゴリズムが良くなることで、今はまだそういうことが起こる。

鈴木:ディープラーニングの何がすごいのかというお話もぜひ伺いたい。

松尾:ディープラーニングはすごい(会場笑)。まず、50~60年という研究の歴史があるにも関わらず人間のような人工知能はまだできていない。でも、人間の脳で起きているのは電気信号のやりとりと化学変化だけ。本来、たいしたことはしていない。それなのに、なぜ人工知能を実現できないのかという根本的な疑問があった。コンピュータが生まれた当初からできる筈だと皆思っていたのに、50~60年後もできない。「何かおかしい」と。それで試行錯誤を重ねた結果、「フレーム問題やシンボルグラウンディング問題のような難問があるからだ」と、これまでは言われていた。

けれども、これは一つの問題だけが悪さをしているのだと僕は思っている。その問題が、それぞれ違う症状になってはいるけれども、問題は一つだけ。それは何かというと、表現を人間が与えなければいけないということだ。ここで言う「表現」とは何か。たとえば重回帰分析というものがある。これは複数におよぶ変数の相関を見て、説明変数を使って被説明変数を説明するということ。たとえばGDPや会社の売上といった説明したい変数を、複数の変数、つまり他のデータを使って説明することだ。

で、そこで「(説明)変数を何にするの?」というのは必ず人間が決めていた。それを上手く決めると良いモデルになり、上手く決められないと良いモデルにならなかったわけだ。それがすべてだった。そういう最も大事なところを、ディープラーニングによってコンピュータができるようになりつつある。大きなデータのなかから、どのように変数をつくればいいのか、取り出せばいいのか、コンピュータが分かるようになりつつある。これまでは人工知能といっても初期の段階で、「現象からどこを取り出して知識として記述するか、あるいはデータとして記述するか」に関して人間の知能を使わなければいけなかった。それをコンピュータがすべて最初からできるようになりつつある。これ、めちゃくちゃ大きな話なのだけれども、伝わっているだろうか(会場笑)。

493e32f09c85da419f17edd10b4e1509

鈴木:半分ぐらい伝わっていると思う。今まで人間が与えていた特徴量をコンピュータが自ら獲得できるようになるというのがディープラーニングの大事なポイントだ。何がディープかというと、階層が深い。これ、説明お願いします。

松尾:シンプルに言うと主成分分析を非線形にして多段にしたという…。

鈴木:それはみんな分からない(会場笑)。

松尾:まあ、でも、そういうことなんですけど(笑)。

鈴木:はい、そうなんです(会場笑)。いずれにせよ、人間だけではなく動物が持つ非常に高度な能力に「表象を持つ」というのがある。松尾さんは先ほど表現という言葉を使っていたが、これは松尾さんの著書にもある通り、非常に誤解の多い言葉だ。英語では‘representation’。哲学の世界では「表象」とか「再現前」と訳される。

たとえば外部からなんらかの複雑なデータが入ってきたとき、内部でその複雑なものを複雑なまま扱うのでなく、ある種のシンボルであるとか、シンボルまで単純化せずとも中間的なレイヤーまで情報を圧縮することを表象と言う。何かを代表しているということだ。そういうものが深い階層のなかの中間レイヤーで自律的に、かなり自動的にできるようになったことがディープラーニングのイノベーション。今から7年ほど前だったか、それをジェフリー・ヒントンさんという人が突然発表した。それが非常に大きなインパクトとなって、そこからディープラーニング大競争みたいなことがはじまった。そうしてすごい勢いで精度が高まりエラー率が下がっていった次第だ。で、今は「それを使ってさまざまなことができるのではないか」ということで、たとえばグーグルは数十億円~数百億円かけてディープラーニング関連の会社を10社ほど買っている。それほどのイノベーションを皆が期待しているということになる。

中林:重回帰分析や主成分分析が分からない方のために少しテーマを変えて話してみたい。先ほど松尾先生が「今から始めたら競争優位になる」とおっしゃっていたけれども、いかに学習を重ねて繰り返すかが大切。しかも、まだそれほど万能ではないからテーマを絞っていく必要がある。Watsonはクイズに絞って5年ほど学習させ、それでアメリカのチャンピオンに勝つようなところにまで持っていった。今は業種業界ごとに学習内容を変えている状態だ。たとえば医療なら医学に関する文献データやカルテ情報を放り込んで、それを医者に見せながら学習させているし、金融だったら金融のデータを放り込んで学習させている。そうした学習を重ねていかなければいけないので、まずはやりはじめることが重要だと思う。ディープラーニングで賢くなるのを待つのでなく、まずはデータを放り込んで、いくつか回しながら学習を重ねること。それで、もっともっと強い人工知能をつくっていけると思う。皆さんも興味があれば、もう今からはじめて少しずつ賢くさせていくのが一つのポイントになるかなと思う。

松尾:ディープラーニングの研究が発表されたのは2007年だけれども、それによってコンペティションで圧倒的に勝ったのは2011年。買収合戦は2013年だ。だからまだまだいける。ただ、今のグーグルのスピードを考えるとあと5~6年だと思う。

人工知能を使った社会システム

鈴木:一方、中島先生は現在、はこだて未来大学でAIを使った交通システムまたは社会システムのデザインを試みている。その辺についてもお伺いしたい。

中島:先ほど会場からいただいたご質問と今のご質問を社会システムの話につなげたい。先にあらすじだけ言っておくと、表象の話から倫理観の話に移り、そのあと社会システムの話になる。まず表象の話をすると、松尾さんが言った通り、今まで人間が与えていた変数を学習できるようになった。ただ、そこで学習する枠組みは人間がプログラムしている。となると、次はそのプログラムをコンピュータが自分で書くこと。これはシンギュラリティのことだ。つまりメタ推論というか一段上のレベルに行くこと。「自分が何をしているのか」「自分が何を学習すればいいのか」と。極端に言うと、「学習するのは飽きたから今度は遊ぼうぜ」みたいなことも考えるコンピュータは、今はまだない。学習プログラムがあれば飽きずにずっと学習し続ける。人間はすぐに飽きて別のことをやるけれども、要するに次はそういう能力が必要になるのだと思う。

そこで「倫理観とは何か」と考えてみると、倫理を証明するというのはかなり難しい。そこで、たとえば「なぜ人を殺してはダメか」という問いに対して私が考えるのは、「自分がされたくないことを人にしてはいけない」ということ。これもメタ推論だ。そのようにして、個の欲求から一段高いところに登って見る能力があれば、コンピュータが仮に人間を超えても「人間を殺しちゃいけないんだ」と思ってくれるかもしれない。

それともう一つ。シンギュラリティというと全人格的に人間を超えるという風に思われるかもしれないが、実際には個々の能力で超えていくのだと思う。たとえば学習能力や推論が人間より速くなるという風に。自動車が速度だけは人間より速いのと同じだ。そのようにして個々の能力で超えていった結果、全体的にどうなるか。これは今お話ししたメタ推論能力をどのようにつくりこんでいくかによって変わると思う。

では、それをいかにして社会システムにつなげるか。社会システムはすでにある。ただ、人間はそれをあまりメタに考えていない気がする。たとえば人間はローマ時代につくられた社会の仕組みをいまだに使ったりしているわけだ。民主主義もそうだし、税金の仕組みもそう。現在のいろいろな社会システムは、長いあいだ使われてきた、さらに言うとコンピュータがない時代につくられたものだ。交通機関も同じ。それを、いろいろな部分でコンピュータ化する動きはある。今までの仕組みは変えず、コンピュータに肩代わりさせよう、と。ただ、そうした今までの延長線上でシンギュラリティが来ると、たぶん非常に困ったことになるという気がする。だから、そもそも社会の仕組み自体を変えなきゃいけないんじゃないかと思う。「コンピュータがあればこういうことができる」「コンピュータでこういうことをやっちゃいけない」と。これは倫理観にも関係するけれども、それを我々人間がそろそろ考え始めなければいけないのだと思う。

1e44a2b13bd1839f3692078caacdac03

で、実に小さな話だけれども、我々は函館でシミュレーションを行って一つ分かったことがある。バスやタクシーのような公共交通機関は、田舎に行けば行くほど路線やダイヤが少なくなって不便になる。現在、函館ではそれで「バスが不便だから」と、皆がバスに乗らなくなって自家用車を使うようになってきた。それでバスは人が乗らなくなって、ますます路線が減るというデススパイラルに入っている。でも、実はすべてコンピュータでコントロールすると、もっと効率よく運行できる。それを我々のコンピュータシミュレーションで証明した。ただ、その実証実験は大変難しい。函館市内にある200台のバスと700台のタクシーを一斉にコンピュータのコントロールで動かす実験となると、市役所の人も「怖い」ということでなかなかやらせてくれない。ただ、いずれにせよそのようにして、今までとは完全に異なる発想をすると今まで不便だったものが良くなるかもしれない。

どうも、今は「人口が減ったら皆が困る」というのが大前提になっているけれども、人口が減ったら広い家に住めるし満員電車にも乗らなくていい。便利なこともある。インフラのつくり方を変えずに人口が減ると困るだけだ。だからインフラを変える。交通機関を含め、そういうことをやっていくと人が少ないほうが楽しいかもしれない。今、東京には日本の人口の1割以上が集中していて、札幌にも北海道人口の4割が集中している。そこで皆が田舎に住んでも困らないような社会システムをAIがサポートしてくれるとしたら、シンギュラリティは非常にありがたいものになるのではないか。

鈴木:人工知能が人口問題を解決する可能性がある、と。中島さんが函館で今後進めようとしている実証実験は、簡単に言うと「バスとタクシーの中間」。バスはルートが決まっていて安い。一方、タクシーやUberは自分の思い通りに行くけれども一組しか乗せないから高い。しかも、地方では配車できないケースもあるからUberはそこまで発達しないかもしれない。ただ、そこで相乗りを最適にプランニングができたらどうだろう。バスより高いけれど、タクシーよりも安いという最適な交通システムができるんじゃないか、と。そういうことを一言で表現すると、まさに田舎でもかなり快適な生活を送ることができるということ。都会に来ないと快適な生活ができないと思っているから皆が東京に来る。そして東京に来れば来るほど出生率が下がる。地方のほうが出生率は比較的高い。だから田舎でも快適に過ごせるようになったら出生率も上がるのではないかということも考えられていらっしゃるのだと思う。

人工知能における倫理問題

さて、続いて倫理の話も少ししておきたい。今、中島さんからメタ推論のようなものがあることで、社会システムのデザイン込みで倫理性も備えたAIが実現するのではないかというお話があった。実は、松尾さんも人工知能学会で倫理委員長を務めている。この辺について、同学会ではどのような議論がなされたのだろう。

松尾:ご質問にあったような視点は我々のほうでもかなり出ている。ドラえもんやアトムのように、機械と共生する文化が日本にはある。だから日本からシンギュラリティを起こす必要があるのではないか、と。シンギュラリティ先進国を目指すべきだという意見がある。それから、人工知能をどのように制御するかという議論も重要だ。たとえば、人工知能がどのように動いているかが分かる透明性や説明性を担保する必要がある。また、制御権を複数の人が持つこと。そのあたりも人工物のシステムとしてきちんと考えておかなければいけないという議論がなされている。ただ、恐らくそれより怖いというか、気を付けなければいけないのは悪用。人工知能が意思を持って人間を滅ぼすというようなことは恐らくないと思う。それよりも悪意を持った人間が人工知能を活用することのほうがよほど現実的なシナリオだと思う。

鈴木:ご質問にあった管理者問題に近い話だ。ハックされてしまう、と。

松尾:そう。例を二つ挙げたい。まずは人工知能の軍事利用。それと、もう一つは人工知能が心を持っているように見せて悪用すること。これは結構簡単だ。それで恋愛感情を抱かせて課金するとか(会場笑)。

鈴木:もうやってますよね。

松尾:いくらでもできちゃう。その辺をどうするのかが重要だと思う。

人工知能によって仕事がなくなる?

鈴木:産業界で活用されればされるほど生活の隅々まで人工知能が普及してくるので、専門家のあいだでも倫理に関する議論はかなり行われている。今後は人工知能の専門家とともに産業界の人々もその辺を議論して欲しい。それと、もう一つの大きな論点として、シンギュラリティが起こると…、起きなくても、「人工知能によって仕事がなくなるんじゃないか?」といった恐れが指摘されている。この点についてはどうお考えだろう。恐らくIBMでいろいろやられていれば、効率化することで企業の仕事がなくなってしまうといった話もあると思うが。

6580526e795f44af557b4a908ecd9730

中林:話が人工知能から少し離れてしまうかもしれないけれど、今は企業のIT部門にいる方々も、ITの発達によってトランスフォームしなければいけないという問題に直面している。今までやってきた仕事が続けられなくなったとき、どのようにトランスフォームしていくか、と。「ITが自動化してクラウドになって、サーバにかけるリソースが小さくなって運用もラクになれば、あとはITをどう戦略的に活用していくかにシフトしよう」と考える方々もいらっしゃる。他の産業も同じだ、農業から機械工業、そしてサービス業というように、人間は新しい産業を次々つくり続けている。だから、人工知能ができてきてもまた違った産業を人間がつくって回していくという気がしている。

中島:もう一度シンギュラリティの定義に戻ると、人工知能が人間の知能を超えたときに何が起こるかといえば、人工知能が自分より賢い人工知能をつくりはじめるということ。だから、第一に職を失うのはAI研究者になる(会場笑)。我々はある意味、それに向かって一生懸命研究していることになるけれども、そこで思うことが二つある。まず、人口と職が減ることはいいことじゃないか、と。少ない人数で人類を養っていけるわけで、何が問題なのか。これ、もっと極端に言うとAIがすべて生産してくれたら人間は遊ぶだけでいいというか、職がなくなっても困らない。では皆が何を心配しているかというと、収入がなくなることだ。でも、生産性が上がって我々が働かなくても食っていけるのなら、そして遊んでいけるのなら、それでいいのではないかなと私は思う。

ただ、倫理の話があるし、先ほどお話しした身体性の話もある。センサー等で人間がどうなっているか分かるようになればそれも分からないけれど、今のところ、たとえばシェフのように美味しい料理をつくるのは難しい。ある程度は味覚センサー等で可能だ。でも、本当にプロフェッショナルな最高レベルは、疲れが分かるとか、暑いとどうなるかが分かるとか、そういうことが分かるような身体がまだ必要だと思う。だから医者やシェフのような職業は、なくなるとしたら最後になるのかなと思う。

松尾:トップの仕事と、人間にすごく近いところの仕事という両極端になっていくと思う。たとえば企業経営者や政治家のように、過去に同じ状況だったことがない状況で判断をしないといけないような仕事は残るのではないか。あと、責任を取るという仕事もかなり残ると思う。それと、人間はやっぱりソーシャルな生き物だから接する相手は人間のほうが嬉しい。飲食店の店員さんやマッサージ師やお医者さんのように、対峙するのは人間がいい、と。いまだに手づくりで一杯ずつ淹れている珈琲屋さんの味のほうがおいしく感じるわけだ。「そんなわけないじゃないですか」と思うけれども(会場笑)、それでもやっぱり一杯一杯淹れてくれるという、その気持ちも含めて嬉しい。そういうところは残ると思うので、両面あると思っている。

→機会か、脅威か? ~人工知能が変える生活、ビジネス、社会~[3]は8/19公開予定

※開催日:2015年3月20日~22日

関連記事

名言

PAGE
TOP