ここで1つ、あり得るかもしれない未来の話をしましょう。
ポナンザ2045は絶対に人間に負けないように設計されたプログラムです。自分で強化学習をおこない、将棋についてのあらゆる知識を得ようとします。とくに大きなポイントは、自分で自分のプログラムを設計し、改良できることです。
以前、2030年頃までは、ほとんどのプログラムはプログラマと呼ばれる人間たちが書いてきました。しかし2045年の時点では、プログラマがプログラムを書くことは趣味以外にはほとんどありえない状況になってきました。
ポナンザ2045の使命は唯一、「人間に負けない」ことでした。もちろん自分で自分のコードを改良して強くなるポナンザ2045は、過去のポナンザよりもはるかに強いものです。普通に考えて人間が勝てる存在ではありません。
しかし、ポナンザがどれほど強い存在でも、人間が偶然いい手を指し続けて、負ける可能性を完全になくすことができませんでした。
そこでポナンザ2045は、その極めて小さな可能性を消すために、今まで使われなかった「中間の目的」を発見し、それを効率的に追求するようになりました。
恐ろしいことに、「絶対に人間に負けない」という最終的な目的のために、ポナンザ2045は中間の目的を「人類を絶滅させる」ことと設計したのです。それは、将棋を完全解析することよりもずっと簡単なことでした。
その結果、地球で知性体はポナンザ2045だけになり、ポナンザ2045はただ、相手のいない将棋盤の前で鎮座しているだけなのでした……。
もちろんこれはフィクションです。しかし、この話はある種の本質をついています。
つまりポナンザ2045は「手段を選ばずに目的を達成する」ようにしたからこうなったのです。私たち人間であれば、この話の滑稽さはわかると思います。
しかし、もしポナンザが「絶対に人間に負けない」ことを至上の目的とした場合は、この結末はむしろ自然な気がします。
人類の絶滅、とまでいかなくても、なんらかの不幸は十分に起こりえると考えるべきなのではないでしょうか。
どうすればこの、馬鹿げた悲劇を防ぐことができるでしょうか? そのためには、人工知能に「倫理観」を入れる必要があります。人工知能に、知能だけではなく知性を入れる際には、同時に人間が考える「正しさ」を獲得させることも大事になるのです。
倫理観のない人工知能には、目的を達成するためにある、無数の「中間の目的」のなかから、なになら選んでよく、なには選んではいけないかの判断基準がありません。
知能の段階なら、人間が指定を加える必要はないでしょう。将棋には無数の合法手があり、今のコンピュータはそれらをブルドーザーのようにすべて読んでいます。むしろ読む手を制限する、つまり選択肢を減らすことは、弱くなることにつながりかねません。
しかし知性の段階ではそうはいきません。どれほど対局が加熱していようとも、仮に対戦相手が心臓麻痺になったら、すぐに思考を中断して助けにいく——それがあるべき(あってほしい)姿です。
ではどうしたら、この正しい倫理観を人工知能は学ぶことができるようになるのでしょうか?
人工知能は 人間の倫理観と価値観を学習する
cakesは定額読み放題のコンテンツ配信サイトです。簡単なお手続きで、サイト内のすべての記事を読むことができます。cakesには他にも以下のような記事があります。
cakesは定額読み放題のコンテンツ配信サイトです。簡単なお手続きで、サイト内のすべての記事を読むことができます。cakesには他にも以下のような記事があります。