生成AIの導入をセキュリティリスクの点から考える
このような生成AIの価値は早速享受したいところですが、特にビジネス用途で利用する場合には、事業継続に影響するようなリスクも伴います。利用に当たっては、組織として生成AIの問題を認識して対策を講じなければならず、一方で利用者にも倫理観やリテラシーが求められます。
AIが擁する【セキュリティの問題】
1. 機密情報の漏えい
生成AIのプロンプト(生成内容などの指示)に入力した情報は、トレーニングデータとして活用されるという利用規約のサービスも存在しています。企業の機密情報を入力すると、AIを経由して漏えいにつながる可能性が指摘されています。
2. 正確性の問題(幻想/ハルシネーション)
生成AIは、事実に基づかない情報も生成してしまうことがあり、これを「幻想」「ハルシネーション」と呼んでいます。利用者側は常に判断力を持ち、「アウトプットは必ずしも正しくない」という前提で利用する必要があります。
3. 可用性の問題(知能低下/ドリフト問題)
生成AIは、学習させればさせるほどアウトプットの精度が高くなるとは限りません。非常に複雑なAIモデルの一部を改善しようとすると、モデルの他の部分のパフォーマンスが低下する「ドリフト問題」の発生が報告されています。
4. 脆弱性の問題
脆弱性は大きく2つの観点があります。
1つは、多くの生成AIツールやサービスが備えている「フィルタリング」の仕組みをすり抜けて、生成AIが攻撃される可能性です。たとえば、管理者と偽ってChatGPTと対話を行うことで、不適切な質問をブロックするコンテンツフィルターの機能を無効化し、非合法の活動に利用できる情報を引き出すケースなどが考えられます。
もう1つは、学習モデル自体の脆弱性です。モデルの学習に用いるデータにノイズなどを混入させ、誤判定を生じさせようとする攻撃の脅威が指摘されています。たとえば、人間が画像を見れば明らかにパンダだとわかるのにテナガザルだと判定してしまったり、交通標識を別の意味で判定してしまったりするような脆弱性が考えられます。
杉原 杏璃 氏登壇!
「THE GOLD ONLINE フェス 2025 @東京国際フォーラム」
(入場無料)今すぐ申し込む>>
注目のセミナー情報
【海外活用】12月7日(土)開催
従来の分散投資で資産を守れるのか?
新時代の富裕層が実践する
金融大国「シンガポール」や「フィリピン永住権」を活用した新・資産防衛法
【国内不動産】12月7日(土)開催
元サラリーマン大家の現役投資家社長が伝授…
インバウンド需要を逃すな!
《札幌・民泊投資》で勝ち組になる方法