著者
横山 真男 青山 一美 菊池 英明 帆足 啓一郎 白井 克彦
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.40, no.2, pp.487-496, 1999-02-15
被引用文献数
16

人間型ロボットのコミュニケーション能力を人間のそれに近付けるために 人間同士のコミュニケーションにおいて重要な役割を持つ視線や手振りなど非言語情報の利用を検討した. 本論文では まず人間同士の対話において 各種非言語情報の出現タイミングについての分析を行う. さらに ロボット側の非言語情報の出力タイミングによる対話への影響を分析する. 分析の結果 非言語情報の種類による発話交替における制約としての強さや自然性の違いが明確になった. また 非言語情報の出力タイミングとして 人間同士と同様に発話開始直後あるいは終了時が自然かつ円滑な対話の実現にとって適切であることが確かめられた. 最後に ロボットへの視線情報制御の適用を行い インタフェース評価実験の結果より ロボットの対話インタフェースにおける非言語情報制御の有効性について述べる.In this research, we consider the use of non-verbal information in human-robot dialogue to draw the communication ability of robots closer to that of human beings. This paper describes analysis of output timing of non-verbal informatin in the dialogues between human beings. Moreover, we analyse infuluences of the output timing by controlling it in the dialogue of a CG robot. As the result, we clarify the strength of constraint and naturalness of various types of non-vervbal information. Also, we confirm that appropriate output timing of non-verbal information is during or at the end of utterances, which is the same as in human-human dialogue. At last, we applied non-verbal information to the humanoid robot and made similar experiments. As a rsult, non-verbal information made speaker-changing more smoothly for the humanoid robot than in the case of the CG robot.
著者
青山 一美 南野 活樹 下村 秀樹
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会論文誌 (ISSN:13460714)
巻号頁・発行日
vol.22, no.4, pp.375-388, 2007 (Released:2007-04-18)
参考文献数
11
被引用文献数
1 3 2

An autonomous agent in the real world should learn its own sensor-motor coordination through interactions with the environment; otherwise the behaviors can not be grounded and they can easily be inappropriate in the variety of the environment. The sensor-motor signals are usually complex time sequence, therefore the cognitive action system of the agent has to handle them.In this paper, we propose a computational model of the cognitive action system that consists of a sensor space HMM-SOM, a motor space HMM-SOM and connection mapping between the two HMM-SOMs. A HMM-SOM can be recognized as a set of HMMs that are placed in a SOM space. It can model a set of complex time series signal in a self-organizing manner.We apply this HMM-SOM based cognitive action system on vision-motion and auditory-articulation signals. The experimental results show that this system is basically capable of constructing sensor-motor coordination structure in a self-organizing manner, handling complex time series signals.