人工知能は人間から「倫理観」を学ぶことになる

人工知能が「知性」を獲得する、つまり「自分で目的を設定する」ようになった場合、「知性とあわせて『倫理観』も学ばなければならない」と山本一成さんは指摘します。これはいったいどういうことでしょうか。

 ここで1つ、あり得るかもしれない未来の話をしましょう。

 ポナンザ2045は絶対に人間に負けないように設計されたプログラムです。自分で強化学習をおこない、将棋についてのあらゆる知識を得ようとします。とくに大きなポイントは、自分で自分のプログラムを設計し、改良できることです。

 以前、2030年頃までは、ほとんどのプログラムはプログラマと呼ばれる人間たちが書いてきました。しかし2045年の時点では、プログラマがプログラムを書くことは趣味以外にはほとんどありえない状況になってきました。

 ポナンザ2045の使命は唯一、「人間に負けない」ことでした。もちろん自分で自分のコードを改良して強くなるポナンザ2045は、過去のポナンザよりもはるかに強いものです。普通に考えて人間が勝てる存在ではありません。

 しかし、ポナンザがどれほど強い存在でも、人間が偶然いい手を指し続けて、負ける可能性を完全になくすことができませんでした。

 そこでポナンザ2045は、その極めて小さな可能性を消すために、今まで使われなかった「中間の目的」を発見し、それを効率的に追求するようになりました。

 恐ろしいことに、「絶対に人間に負けない」という最終的な目的のために、ポナンザ2045は中間の目的を「人類を絶滅させる」ことと設計したのです。それは、将棋を完全解析することよりもずっと簡単なことでした。

 その結果、地球で知性体はポナンザ2045だけになり、ポナンザ2045はただ、相手のいない将棋盤の前で鎮座しているだけなのでした……。

 もちろんこれはフィクションです。しかし、この話はある種の本質をついています。

 つまりポナンザ2045は「手段を選ばずに目的を達成する」ようにしたからこうなったのです。私たち人間であれば、この話の滑稽さはわかると思います。

 しかし、もしポナンザが「絶対に人間に負けない」ことを至上の目的とした場合は、この結末はむしろ自然な気がします。

 人類の絶滅、とまでいかなくても、なんらかの不幸は十分に起こりえると考えるべきなのではないでしょうか。

 どうすればこの、馬鹿げた悲劇を防ぐことができるでしょうか?  そのためには、人工知能に「倫理観」を入れる必要があります。人工知能に、知能だけではなく知性を入れる際には、同時に人間が考える「正しさ」を獲得させることも大事になるのです。

 倫理観のない人工知能には、目的を達成するためにある、無数の「中間の目的」のなかから、なになら選んでよく、なには選んではいけないかの判断基準がありません。

 知能の段階なら、人間が指定を加える必要はないでしょう。将棋には無数の合法手があり、今のコンピュータはそれらをブルドーザーのようにすべて読んでいます。むしろ読む手を制限する、つまり選択肢を減らすことは、弱くなることにつながりかねません。

 しかし知性の段階ではそうはいきません。どれほど対局が加熱していようとも、仮に対戦相手が心臓麻痺になったら、すぐに思考を中断して助けにいく—それがあるべき(あってほしい)姿です。

 ではどうしたら、この正しい倫理観を人工知能は学ぶことができるようになるのでしょうか?

人工知能は 人間の倫理観と価値観を学習する

第11回で、「父は母がバッグを忘れたことを怒った」という文章を、今のグーグル翻訳はうまく訳すことができるようなったと紹介しました。

 グーグル翻訳は、日本語にはなかった情報、「バッグの所有格」を適切に補い「My father got angry that my mother forgot her bag.」と翻訳したのです。見事な翻訳だと思います。

 この文章を「母は父がバッグを忘れたことを怒った」と、父と母の文字を入れ替えてみましょう。

 そうすると、理屈のうえでは、バッグの持ち主はhisつまり父にならないとおかしいですね。

 しかし結果は、図4-6のように、herになりました。相変わらず、バッグは彼女の持ち物のままです。


図4-6 グーグル翻訳の判断

 これはどう考えればいいのでしょうか? 図4-6の上の翻訳からロジカルに考えれば、下の翻訳におけるバッグの所有者は父になるはずです。

 しかし社会通念的には、バッグは女性のもののほうが多いでしょうから、バッグが母のものだった、と推測することは可能です。

 では、この翻訳で「バッグ」を「鞄」に変えてみましょう。 すると、所有者は必ず「父」になります。そう、このグーグル翻訳は「バッグ」は女性のもの、「鞄」は男性のものだと思っているのです。

 この結果は衝撃的ですね。いつのまにかディープラーニングは、よく言えば人間世界の「常識」を、悪く言えば「ステレオタイプ」を身につけたのです。

 この例からわかることは、人工知能はその倫理感を、おそらくディープラーニングによって人間から学ぶことになるということです。

 人間の倫理感は時代とともに入れ替わり、また必ずしも一貫したものではありません。 また、倫理感は私たちの常識と表裏一体のものですから、その量は、私たちが思っている以上のデータ量になるでしょう(本連載のなかで繰り返し言ってきた、自分たちが簡単にできることや、常識と思っていることをすべて書きつくすことの難しさを思い出してください)。

 将棋や囲碁の例と同じく、プログラマが人間社会の常識を書ききることはできません。 膨大なデータさえあればルールを無視して学習できる、ディープラーニングによって人間を模倣することになるでしょう。

 しかし、人間の倫理感を模倣して大丈夫なのでしょうか? 「バッグ」は女性のもの、「鞄」は男性のものと考えてしまう人間の常識に、危険はないのでしょうか?


新刊のお知らせ
この連載が本になります!

『人工知能はどのようにして「名人」を超えたのか?』
山本一成著 定価:1,500円+税 発行年月:2017年5月 ダイヤモンド社

多くのメディアで注目浴びる開発者が、
10年間AIを作りながら考えた、 知能と知性、コンピュータと人間のこと。

◇「黒魔術化」する人工知能
◇黒魔術の1つ、「怠惰な並列化」とは
◇ディープラーニングは 知能の大統一理論になれるか?
◇サイコロにも知能がある!?
◇囲碁は画像だった!
◇知能の本質も画像なのか?
◇科学が宗教になる瞬間を見た
◇研究者は「人工知能の性能が上がった理由」を説明できない
◇人類はこれから、プロ棋士と同じ経験をする

人工知能は今、プログラマの手を離れ、 既存の科学の範疇を超え、 天才が残した棋譜も必要とせず、 さらには人間そのものからも卒業しようとしています。 その物語を、できる限りやさしく語りました。

アマゾンリンクはこちら

この連載について

初回を読む
人工知能はどのようにして「名人」を超えるのか?

山本一成

2016年、電王戦で5戦全勝した将棋AIポナンザ。開発者である山本一成さんは「知能とは何か?」「知性とは何か?」ということを何度も自問することになったそうです。そうすることで、逆に人間の知能がクリアに見えてきたと言います。この思考の結...もっと読む

この連載の人気記事

関連記事

関連キーワード

コメント

ayasasaki108 Google翻訳の進化がすごい。 2日前 replyretweetfavorite

yuichi_175 知能は、まだまだっす。 3日前 replyretweetfavorite

okinawa58 おもしろい! 3日前 replyretweetfavorite

kazanagisora >知性の段階には「倫理観」がなければならない 3日前 replyretweetfavorite