人間の感情を人工的に作り出すことは難しく、これまで「感情を持つAI」は実現されていません。しかし、シンギュラリティ(2045年問題)のように、AI技術の発展により、何か想像ができない未来が起きうる可能性があるとされています。AIが感情を持つことは可能なのでしょうか。現在の技術や研究の状況を踏まえて解説します。
人間よりもAIの方が感情の動きに敏感?「感情認識AI」の可能性 (※写真はイメージです/PIXTA)

※本稿は、テック系メディアサイト『iX+(イクタス)』からの転載記事です。

これまでの「感情を持たないAI」

人間の感情には個人差があり、これまで感情を人工的に作り出すことや正確に予測することは不可能とされてきました。脳は感情生成に重要な役割を果たしていますが、まだ解明されていない部分が多く存在しています。感情が神経組織に伝わる方法は一部解明されつつありますが、無意識の反応や感情生成のメカニズムについては未だ謎に包まれています。

 

未来を描いた小説や映画では、人工知能を持ったアンドロイドがしばしば描かれますが、こうしたアンドロイドの多くは感情を持たず、「人間の役に立つロボット」として描かれることが多いです。現実世界でも、AIによって実現されたアンドロイドの例は多く存在しますが、感情を持つアンドロイドはまだ実現されていません。

 

AIの技術は飛躍的な進化を遂げていますが、AIが感情を正確に把握したり、感情を持ったりすることは可能なのでしょうか。

声で判定する、文章から読み取る「感情認識AI」の登場

声色や話し方で感情を判定

人の感情は、話しているときの「声」に表れることが多いです。怒っていれば語気が荒くなり、穏やかな気持ちであれば自然と優しい声色になります。

 

感情認識AIへの発展が期待される技術のひとつに、株式会社Empathが提供する「Empath」があります。これは、音声等の物理的な特徴から、話者の感情を独自のアルゴリズムで判定するプログラムです。

 

数万人単位の膨大な音声データベースを使用して、話者の精神状態を分析することができ、メンタルヘルスケアなどの分野で一定の成果を上げています。Empathが人々の声色や話し方に触れ、蓄積された経験をもとに状況判断を行うメカニズムと、AIがビッグデータを利用して最適な回答を導き出す仕組みは非常に似通っています。

 

まだ「感情を作り出す」までには到達していないものの、対象の人物から発せられる外的情報によって感情を判断するという点では、人の脳のメカニズムにより近いプログラムと言えるでしょう。