「人工知能が人類を滅ぼす」論に潜む暗黙の前提についての違和感

【字数:2602字 目安:6分】 

 「ディープラーニング」(深層学習)を中心とした人工知能に関する議論が最近国内でも流行っている。雑誌や週刊誌でも特集が組まれることが多いし、だいたいそこでは松尾豊さんとか小林雅一さんあたりを中心に記事が載っている。いや、むしろこの二人だけで半分以上の記事ができているといっていいくらいの頻度で目にする。

 

 それはいい。本題は人工知能の発達は人類の脅威になる」という議論が高まり、恐怖感が世間で高まっていくことへの懸念だ。この議論についてしばしば引き合いに出されるのはスティーヴン・ホーキング博士(理論物理学者)やイーロン・マスクテスラ・モーターズ社長)、ビル・ゲイツマイクロソフト会長)、ノーム・チョムスキー言語学者)などの著名人の発言で、彼らは人工知能が自分よりも賢い人工知能を作れるようになる(レイ・カーツワイルのいう「技術的特異点」(singularity)の議論)と、人類にとって脅威となるのではないか、人工知能は私たちを滅ぼすような存在になってしまうのではないかという懸念を公に示している。

 

www.huffingtonpost.jp

jp.wsj.com

 

 しかし個人的にはこの問題について、あまりよくないフレーミングがなされている印象がある。それは「人類ー人工知能という対立軸で問題を捉えるというフレーミングだ。この捉え方でなされる議論は、基本的にこういう風に展開される。つまり、人工知能がどんどん進化していくと、人間には理解できないような理屈で物事を判断し、それでも人間が「まあ人工知能がくだした結論だからきっと合理的なんだろう」と判断して人工知能に意思決定の権限を与えてしまうと、人工知能が私たち人類にとって害をなすような結論を下し、それを実行してしまえば人類はおしまいではないか、というものだ。

 

 この議論がなされるときに暗黙の前提になっていることは何か考えていて、あることに気がついた。それは民主主義と意思決定の権限との関係だ。上の議論では、たとえ人間にはその根拠が理解できなくても彼らに意思決定の最終的な権限を与えるという前提で議論がなされる。そんな決め方はそもそも現在の民主主義社会ではなされない。国民の了承や同意なしに、いつの間にか政治家が色々なことを勝手に決断し、実行するような国家を「民主的」とは呼ばないだろう。そしてそれは「政治家か人工知能か」が問題なのではなく、あくまでも意思決定と実行の権限が人間の側、それも一般大衆の手に委ねられるかどうかの問題だ。

 

 もちろん現在でも「間接民主制」(或いは「代議制」)という形で、政治家に国(あるいはある集団といってもいい)全体に関する意思決定と実行の権限を委譲するということをやっている。これはルソーの社会契約論やミルの代議制統治論などの延長上にある政治体制の基本認識だ。しかしこの体制であっても、国民にとって極めて重要と思われる事柄については国民の判断を仰ぐように仕組みが作られていて、権限はあくまで国民の側に残されている。それはたとえいかに国民が愚かであるとしても、である。どれほど国民が愚かであるとしても、国民自身が最終的な決断を下すという手続きこそが重要なのであって、その手続きを保っている限りにおいて決断の正当性が保たれるということになる。

 

 ちょうど今朝のYahoo!ニュースで国家間に関する茂木さんの記事があったので、その一部をここに引用しておく。

そもそも、国家はどうして必要なのか? ホッブズリヴァイアサン」の社会契約論によれば、自然状態では「万人の万人に対する闘争」(bellum omnium contra omnes)になってしまうため、個人の権利を一部制約しても、国家というシステムを作るのである。

社会契約によって出来た国家を「リヴァイアサン」という聖書の中の怪物にたとえたのは、ホッブズの慧眼であった。まさに、主権国家はリヴァイアサンとして振る舞っており、大量破壊兵器の使用など、事実上好き勝手なことを繰り返しては、その責任を逃れ続けている。

 ここで触れられているのはルソーでなくホッブズの方の社会契約の話だが、「万人の万人に対する闘争」状態を脱するために国民が国家に意思決定の権限を委譲することを「社会契約」と考えるならば、それは間接民主制と結びつく。

zasshi.news.yahoo.co.jp

 ちなみにこの記事の後半で人工知能の話がちらっと出てくる。その部分も引用しておく。

今後は、人工知能を応用した、きわめて高度な兵器が登場し、核兵器以上の脅威をもたらす可能性が高い。人類が絶滅する存在論的危機が、現実のものになろうとしている。

 

 人工知能がどれほど賢くなったとしても、人類が自らの決断と実行の権限を手放さなければ、この問題は起こらないのではないかと思う。ドローンなどの軍事利用にしても、経済における民間利用にしても、それを人工知能に明け渡すから「人類滅亡?」のような議論に結びついてしまうのではないか。こういう議論は感情に訴えかける面が大きい分、大衆にいったん広がり始めると厄介で、慎重な議論がなされないままにしばしば既成事実のようになっていったりする。今回もすでにそんなことになってはいないだろうか。つまりホーキング博士ビル・ゲイツの発言などを「正当な根拠」ででもあるかのようにして人工知能への否定的な議論を展開しておきながら、実はその土台にあるのは機械がもつ非人間的な印象といった、本質的でも論理的でもない「ただの生理的な嫌悪感」でしかない、そんなことはないだろうか。そういう土台の上に、もっともらしい理屈をのっけて理論武装しているように思えてならない。だとしたら随分始末が悪い。

 

 しかし、改めて言うが、人工知能がどれほど賢くなったとしても、人類が自らの決断と実行の権限を安易に手放さず、彼らともやりとりをしながら、あくまでも自分たちの社会に関する最終的な判断は人間が行うという姿勢を崩さなければ、人類が人工知能に滅ぼされるようなことにはならない。

 

 人工知能が増えるということは、期せずして人類の敵を作ってしまうことではなくて、新たな「対話と共存の相手が増えるということだと考えるべきではないだろうか。それならばちゃんと対話して共存することを考えればいい。対話をせずに相手になんでも任せっきりにしてしまえば問題が起きるというのは、何も相手が人工知能だからではないだろう。人間でもそれは起きる。そういう話なのではないだろうか。