- 著者
-
長谷川 修
- 出版者
- 一般社団法人電子情報通信学会
- 雑誌
- 電子情報通信学会総合大会講演論文集
- 巻号頁・発行日
- vol.1997, pp.524-525, 1997-03-06
一般に人が対面して対話をする際には、言語によるバーバル(verbal)な情報以外にも、視覚を通して視線の動きや様々な表情、また身振り手振りといったノンバーバル(non-verbal)な情報の授受も頻繁に行ない、意思や感情のスムーズな疎通を図っている[1]。すなわち人が対話する際には、言語による論理や感情の表現に加え、表情の変化やジェスチャー(これらを人の日常的な対話モードと呼ぶ)を意識的/無意識的に活用し、高度な相互理解を達成していると考えられる。これに対し、現在広く利用されているコンピュータや家電製品と人との対話においては、コマンドやボタン群といった人にとって非日常的な対話モードが用いられるのが一般的である。このだめユーザは機械毎にその操作法を学ばねばならず、機械の多機能/高機能化が進んだ昨今ではその負担は大きなものとなっている。今後もこのような状況が続けば、本来機械は多機能になるほどユーザに歓迎される筈が、それ故に敬遠されるという事態にもなりかねない。近年このような状況に鑑み、人の日常的な対話モードを活用し、人と機械のスムーズな対話の実現を目指すマルチモーダル対話(Multi-Modal Interaction : 以下MM対話)の重要性が強く認識されている。本稿では、このMM対話研究の一領域として最近注目を集めている擬人化エージェントによるマルチモーダルインタフェース 1 について慨説する[2,3]。