AIは自己学習してレベルアップしていく
結論までのプロセスを説明できないディープラーニング
「2045年にシンギュラリティが起こる」ということが問題にされる背景には、AIそのものの進化が急速に進んでいるという理由があるでしょう。
2013年以前に私たちが議論していた頃のAIは、比較的シンプルでわかりやすい技術でした。AIは、きちんと情報をインプットしさえすれば、私たちに代わって面倒な仕事を片づけて、時間を節約してくれる便利なものでした。
それは今でも変わらないのですが、AIの進化とともに、私たち人間がデータ認識の基礎となる「教師データ」のインプットを助ける必要がなくなってくると、AI自身が自分で学習方法を模索するようになりました。それは私たちがAIに促したものではないし、AIが人間から学んだわけでもありません。そのため、どのようにして自己学習したかを、AIは私たちに説明することはできません。
AI自身がいったん自分で学習する方法を見つけ出すと、AIは自己学習してどんどんレベルアップしていきます。たとえば、AIにイチゴを認識させるために「これがイチゴだよ」と複数の画像を教師データとして与えると、AIはその画像から「イチゴ」という物体の色や形を収集し、パターンやルールの発見、特徴量の設定をしていきます。その結果として、AIが膨大な画像の中から瞬時にイチゴを見つけることも可能になるというわけです。
これがいわゆる「ディープラーニング(深層学習)」と呼ばれる方法です。このディープラーニングの結果、「AIがいつか人間を超えてしまうのではないか」という心配が生まれているのでしょう。
しかし、それは杞憂であると思います。今後ディープラーニングのプロセスを人間の思考方式に基づいて説明できるようになる可能性は、一定程度あると考えられるからです。むしろ「AIはさらに高度な方向へ進んでいる」というのが、現在の状況でしょう。
現在のAIは、推論のプロセスに頼るのではなく、入力された情報に正確に依拠し、データからつながりを見つけ出していきます。これに対して、私たちが「データ」というものを見る場合は、往々にして人間の概念、すなわち抽象的な発想の影響を受けています。たとえば、囲碁で「この黒石はもう活かすことができない」と言ったりしますが、この「活きる・活きない」という発想は人間ならではのものであると言えるでしょう。
しかし、ディープラーニングはこれらの概念に影響されることはありません。人間は囲碁のルールをAIに教える必要すらないのです。AIは人間の概念とは無関係に、自分でどうすればより良いプレイができるかを考えます。
AIに何かの決断をさせる場合でも、以前は人間の概念を用いて誘導したので、AI自身が人間に「こういう理由でこの決定をしました」と説明することができました。しかし、ディープラーニングでは人間の概念は使用されないので、AIが下した決断の理由は人間にはわからないし、AI自身もわからないのです。