AI時代における音声データの可能性
これまでビジネスにおけるデータといえば、メールや書類のようなテキストや画像情報が中心でした。一方で、人は1日に1回あたり30分、合計で約6時間と多くの時間を会話に費やしています(国立国語研究所調べ)。顧客と担当者との間で交わされる会話の中には、商談の進展に役立つ情報や、意思決定に関わる内容など、経営に係る重要な情報が含まれています。このような情報を担当者が議事録等の文章にまとめる場合、話した内容を細かく記載するには労力もかかりますし、担当者の主観が入り、正確に記録することは非常に困難です。
そこで会話を録音し、AIで解析します。すると、自動で商談内容を文字起こし・要約して議事録を作成するだけでなく、話した内容をトピックごとにわけて、感情の変遷なども併せて共有することが可能になります。工数を掛けずに正確な情報を伝達できるようになるのです。
ほかにも、話し方の特徴を分析・可視化できたり、どのような話をした際に相手が反応を示したのかがわかったりと、自分でまとめたり分析をしたりしなくても、音声データとAIの力でコミュニケーションを最適化させることができます。
このように会話の内容をAIで解析することで、顧客と担当者が「なにを」「どのように」話しているかわからないといった「会話のブラックボックス化問題」を解消します。さらに中長期的には音声データを蓄積し、ビッグデータ化が可能になるのです。
しかし、単に音声を録音するだけではAI活用には繋がらないため、注意が必要です。コールセンターの顧客対応等で会話を録音するケースが一般的になりつつありますが、録音ファイルを、AIが使える構造化された音声データに整える必要があります。
音声認識エンジンを使って会話をテキストデータに変換し、話し方・感情解析エンジンの解析結果や周辺システムの情報と紐づけを行い、「誰が、いつ、どの業界の、どの担当者と、なにをどのように話して、その結果どうだったのか」といった情報を音声に付与することで、AIが使える構造化データにトランスフォーメーションさせることができます。