AIが勝手に車を運転し始めるということはない
前回はディープラーニングは睡眠学習に似ているという話をしました。
ディープラーニングをどう社会に位置づけるかを考える
とはいえ、私も一日中夢を見ているわけではありません。目は覚めますし、いずれは自分の結論を他の人たちと共有しなければなりません。自分自身で「Fast、Fair、Fun」の結論に満足したら、衛生福利部や外交部に対し、私が思いついた三つの言葉が彼らの要求を非常に正確に描写しているものであると納得させなければなりません。
この場合、政務委員であるからといって、「夢で見たから」という理由で押しつけることはできません。この三つのキーワードについて、それぞれ例をきっちりと挙げ、明確に説明できることを証明しなければならないのです。「Fast、Fair、Fun」というキーワードと、実際に発生した事実をブリッジするのが私の役割です。
たとえば、台湾のコロナ対策における「Fair =公平」とは、マスクの実名制での販売を指しますが、「公平」という概念と「マスク販売」という事実をつなぐ必要があります。「公平」という抽象的な概念だけを語るだけでは意味がないのです。マスクの公平な分配とは、どういうことかを説明しなければなりません。
「ブリッジ」という概念によって、私自身でもどうやって出てきたかわからない「Fast、Fair、Fun」というキーワードと私のニューラル・ネットワークにおける入力層の間に新しいリンクを作り、説明責任を果たしていく。それこそが私に求められるアカウンタビリティ(説明責任)なのではないかと思います。
目覚めているときには、政務委員としての仕事を行いますが、寝ているときには、そうした作業はできず、「Fast、Fair、Fun」を生み出すだけです。これと同じ道理で、ディープラーニングを用いるのであれば、最終的に「Fast、Fair、Fun」のような「ラベル」を見つけ出しても、その「ラベル」について説明責任を果たせるような何らかの方法を開発する必要があります。
他人の気持ちを感じることが苦手な人もいます。平気で悪事を働くような人は「良心がない」と言われることがあります。他人が不快に思うことを感じることができないというのは、機械だけの特質ではなく、人間の中にはそうした気質を持つ人もいるということです。それと同じ意味で、「社会が安全で住みよいものになるためには、どれだけのプロセスが必要なのか」ということを考えなければなりません。
トラックの運転免許を持っていない私が、トラックに乗ってエンジンをかけてしまわない方法を、私たちの社会は全力で考えてくれています。これは非常に重要なことです。戦車を運転する権限がない人が戦車を運転することのないように、社会は慎重な努力を払う必要があります。
社会を大規模に破壊するようなもの、重大な被害を与えること、たとえば「虫の居所が悪いから」と言って核爆弾のボタンを押してしまうようなことに対して、社会はそれを防ぐための高い基準を設けています。ディープラーニングも同様です。それは人間社会が前進していくうえでの補助的な役割、あるいはナビゲーションの役割を果たすものであり、AIが勝手に車を運転し始めるということはありえないのです。