(写真はイメージです/PIXTA)

人々は機械や技術の核心部分をよく理解せずに信じて使用してきました。これは、ブラックボックスといえるでしょう。AI時代、こうしたブラックボックスがどんどん広がるなか、どのように対応していきばいいのでしょうか。ニッセイ基礎研究所 篠原拓也氏の解説です。

人間の側のAIへの接し方が問われる

また、AIの出す答えは道義的に正しいとは限らない。AIは、従来の機械のように、倫理などとは無関係に、ただ安定的に動作して、信頼できるアウトプットを出せばよいというところにとどまらない。

 

たとえば、ある会社が新入職員のリクルート活動にAIを活用するテストを行った。AIを使って、人材の能力や経験を適切に判定して、採用を行おうという試みだ。ところが、AIは特定の人種や性別に偏った採用可否の判定結果を出してきた。この会社は、この判定結果を用いなかったという。

 

これは、AIが機械学習をする際に用いたデータに、人間が持つバイアスが反映されていたことに起因する。AIが機械学習によって確立し、さまざまな問題の解決に用いるアルゴリズムには、偏見や差別を含んだり、既存の社会ヒエラルキーを強化したりする可能性が潜んでいるわけだ。

 

こうしたことを踏まえると、今後は、人間の側のAIへの接し方が問われることになる。ただ、やみくもにAIの出した答えを信じるのではなく、AIシステムが倫理や道義の面も含めて、フェアに稼動していることをよく確認したうえで、その先を信じるという姿勢が求められることになる。

ブラックボックスはすでに身近にある

AIが登場する前から、人々は機械や技術の核心部分をよく理解せずに、信じて使用してきた。たとえば、身近にある電卓がそうだ。電卓が出す計算結果をいちいち疑って、暗算や筆算で確認する、という人はいないだろう。これでは、何のために電卓を使っているのかわからなくなってしまう。

 

だが、電卓が正しく計算する仕組みを完全に理解しているという人は限られるはずだ。たいていの人は、電卓の仕組みをよくわからないまま使っている。多くの人にとって、電卓はブラックボックスといえるだろう。

 

これは、同じ計算ツールである、算盤(そろばん)とはまったく事情が異なる。算盤は、使う人がその都度正しさを確認しながら、計算を進めていく。一方、電卓は、数字や加減乗除などのボタンを順番に押しているだけで、計算そのものの正しさの確認を意識しなくても答えが出る。

 

こうしたブラックボックスは、電卓だけでなく、世の中にどんどん広がっている。スマートフォン、パソコンはおろか、自動車もテレビも、故障したときに自力で直せるという人は、普通の人ではまずいない。壊れたときには、購入した店の修理カウンターや、修理工場に持ち込んで直してもらうのが一般的だ。

 

次ページ「ブラックボックステスト」には限界がある

※本記事記載のデータは各種の情報源からニッセイ基礎研究所が入手・加工したものであり、その正確性と安全性を保証するものではありません。また、本記事は情報提供が目的であり、記載の意見や予測は、いかなる契約の締結や解約を勧誘するものではありません。
※本記事は、ニッセイ基礎研究所が2022年11月21日に公開したレポートを転載したものです。
※記事執筆の際の参考資料
「ホワイトボックステストとは?ブラックボックステストとの違いやテスト技法について解説」
花房輝鑑氏監修(次世代ゲームテスト研究所, AIQVE ONE株式会社(アイキューブワン), 2021年2月12日)
https://blog.aiqveone.co.jp/whitebox-testing/
「ホワイトボックステストとブラックボックステスト、どっちが必要?」
(発注ラウンジ, 発注ナビ株式会社, 2017年7月6日)
https://hnavi.co.jp/knowledge/blog/white-box-test/

人気記事ランキング

  • デイリー
  • 週間
  • 月間

メルマガ会員登録者の
ご案内

メルマガ会員限定記事をお読みいただける他、新着記事の一覧をメールで配信。カメハメハ倶楽部主催の各種セミナー案内等、知的武装をし、行動するための情報を厳選してお届けします。

メルマガ登録