人間の側のAIへの接し方が問われる
また、AIの出す答えは道義的に正しいとは限らない。AIは、従来の機械のように、倫理などとは無関係に、ただ安定的に動作して、信頼できるアウトプットを出せばよいというところにとどまらない。
たとえば、ある会社が新入職員のリクルート活動にAIを活用するテストを行った。AIを使って、人材の能力や経験を適切に判定して、採用を行おうという試みだ。ところが、AIは特定の人種や性別に偏った採用可否の判定結果を出してきた。この会社は、この判定結果を用いなかったという。
これは、AIが機械学習をする際に用いたデータに、人間が持つバイアスが反映されていたことに起因する。AIが機械学習によって確立し、さまざまな問題の解決に用いるアルゴリズムには、偏見や差別を含んだり、既存の社会ヒエラルキーを強化したりする可能性が潜んでいるわけだ。
こうしたことを踏まえると、今後は、人間の側のAIへの接し方が問われることになる。ただ、やみくもにAIの出した答えを信じるのではなく、AIシステムが倫理や道義の面も含めて、フェアに稼動していることをよく確認したうえで、その先を信じるという姿勢が求められることになる。
ブラックボックスはすでに身近にある
AIが登場する前から、人々は機械や技術の核心部分をよく理解せずに、信じて使用してきた。たとえば、身近にある電卓がそうだ。電卓が出す計算結果をいちいち疑って、暗算や筆算で確認する、という人はいないだろう。これでは、何のために電卓を使っているのかわからなくなってしまう。
だが、電卓が正しく計算する仕組みを完全に理解しているという人は限られるはずだ。たいていの人は、電卓の仕組みをよくわからないまま使っている。多くの人にとって、電卓はブラックボックスといえるだろう。
これは、同じ計算ツールである、算盤(そろばん)とはまったく事情が異なる。算盤は、使う人がその都度正しさを確認しながら、計算を進めていく。一方、電卓は、数字や加減乗除などのボタンを順番に押しているだけで、計算そのものの正しさの確認を意識しなくても答えが出る。
こうしたブラックボックスは、電卓だけでなく、世の中にどんどん広がっている。スマートフォン、パソコンはおろか、自動車もテレビも、故障したときに自力で直せるという人は、普通の人ではまずいない。壊れたときには、購入した店の修理カウンターや、修理工場に持ち込んで直してもらうのが一般的だ。