大日本印刷(DNP)と電気通信大学の長井隆行研究室および中村友昭研究室は8月7日、共同でAI(人工知能)が人間の言葉や表情、ジェスチャーに合わせて、自動的にその返答とジェスチャーを生成する「表現AI」の研究を開始したと発表した。

労働生産性を上げる手法の一つとして、AIの活用による業務革新やイノベーションの創出が期待されており、それに対してDNPは人間と多様な情報デバイスとの円滑な情報のやり取りを支援する「知能コミュニケーションプラットフォーム」の構築を2014年から進めている。

これは、AIを活用した音声や映像を組み合わせた分析により、各種情報デバイスが相手の状況を推定して適切なコミュニケーションが行えることを目指している。しかし、現在のAI技術では音声(言語)や映像(動作や表情など)を個別に分析することが可能だが、言語とジェスチャー、表情などの相関関係づけは、人間の判断(プログラマーによる設定)が必要になっていたという。

一方、電気通信大学はAIが自律的に概念を学ぶ方法として、人間の成長過程と同様に周囲の状況を観察・行動しながら異なる相手との相関関係を分析して自律的に成長していく「記号創発ロボティクス」の研究を進めている。これにより、人間の発する言葉やジェスチャーなどの意味を機械が理解し、より円滑なコミュニケーションを実現する基盤技術の確立を目指している。

表現AIの共同開発では、(1)文章からジェスチャーを自動生成するライブラリの開発、(2)(1)で生成した「ジェスチャー情報」を形状の異なる情報デバイスで再現する。

(1)では、大量の人間の映像情報から、自動的に返答する言葉とジェスチャーを合わせて抽出する教師なし学習の手法により、その相関関係を分析したモデルを構築することで、人手による設定がなくても言語に合わせた適切なジェスチャー表現を自動生成できるライブラリを開発。

(2)では、コミュニケーションロボットをはじめとしたさまざまな情報デバイスのモジュールを調整することで、ジェスチャー表現の自動生成の実用化を目指す。

今回の共同研究をベースに電気通信大学は、AIが自分という概念を持ち、どのように自分を表現するかという、より一般化した表現AIの研究を発展させていく。ロボットの表現を、ジェスチャーだけでなく、発話やその意味内容、表情などを含めた総体として捉えることで、より生き生きと人に語りかけるロボットの開発につなげていくという。

一方、DNPは知能コミュニケーションプラットフォームの機能を向上させるとともに、同プラットフォームを搭載し、コミュニケーション機能の進化したロボットやチャットボット、デジタルサイネージなどを店舗や各種施設、イベント会場などで活用していく。これにより、企業の店舗運営における業務の効率化を支援するとともに、企業と生活者とのコミュニケーションを深めることで、新商品開発や新規事業の発掘などにつなげていく考えだ。

今後、情報デバイス(ロボット、チャットボット、デジタルサイネージなど)が、ジェスチャー付きで会話を行う表現AIのプロトタイプを2017年度中に開発し、その後は実際の情報デバイスを利用した自動プレゼンテーションの実証実験を行う予定だ。また、店舗での案内やECサイトなどでの顧客対応といった生活者とのコミュニケーションを支援するサービスへの展開を目指す。

なお、今回の共同研究は電気通信大学人工知能先端研究センターが掲げる「人と共生して対応できる汎用性の高い人工知能システム」の実現の一環として取り組む。DNPは同センターに参加し、出版、教育、およびマーケティング分野等においてAI技術の実用化研究や社会実装を促進するため、同大学との連携を強化していく方針だ。