ジェスチャーを使って応答するAIの開発で「表現AI」を前進へ

人間の言葉を理解して適切に回答できる人工知能の開発が進んでいますが、電気通信大学の研究グループはさらに一歩進んだコミュニケーションとして、「ジェスチャー」を使って応答できるAIの開発を始めています。




表現AIの研究

これまでのAIの開発では、音声や言語を認識して理解し、人間との対話が可能になるシステムの構築がさまざまな研究機関や企業によって行われてきました。

しかし、より進んだコミュニケーションを実現するためには「喜怒哀楽」などの感情もまた相手の表情などから読み取り、さらにAI自身が感情を表現する「表現AI」の研究もまた進められています。

表現AIでは、いわゆる「表情」のほかにも身体をつかった「ジェスチャー」もまた重要になってきます。

大日本印刷株式会社と電気通信大学の研究グループ(長井隆行研究室・中村友昭研究室)は、人間の言葉や表情、さらには「ジェスチャー」を理解して、自動的に返答とジェスチャーを生成することができる表現AIの研究を始めました。

AIでジェスチャーを理解する

これまでのAIの技術では、ジェスチャーを理解するためには音声や映像を個別に分析して、言語とジェスチャーや表情などの関係づけをプログラミングする必要がありました。

しかし今回は、AIが自立的にジェスチャーを学習していく手法を進めるとしています。

これは、人間が周囲の状況を観察して異なる相手との関係を分析、自立的に成長していくのと同様の学習になります。

このように、人間が成長過程で言語やその他の能力を得るプロセスをロボットで再現する「記号創発ロボティクス」について、電気通信大学では研究を進めています。

ジェスチャーを理解するAIの開発では、大量の人間の映像から「教師なし学習」の手法でモデルを構築します。

つまり、映像に含まれる情報から、返答する際の言葉とジェスチャーを自動的に抽出して、その特徴をその相関関係を分析、自律的に学習させます。

このようにして、人手によるプログラミングを必要とせずに言語に合わせた適切なジェスチャーを自動生成するためのライブラリを構築していきます。

構築されたライブラリは、ロボットやチャットボットなどさまざまな情報デバイスに応用することで、ジェスチャー付きの会話をすることができる「表現AI」のプロトタイプを開発します。

研究グループは2017年度中に開発を終了して実際に情報デバイスに適用し、自動プレゼンテーションの実証実験を行う予定です。将来的には店舗における案内やECサイトなどで顧客に対応するロボットのサービスへと展開を目指しています。

IMAGE1SOURCE1
NEW POST