著者
和氣 早苗 池邉亮志 河野 泉 上窪真一 福住 伸一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ヒューマンコンピュータインタラクション(HCI) (ISSN:09196072)
巻号頁・発行日
vol.2000, no.61, pp.57-64, 2000-07-06
参考文献数
6

近年,擬人化エージェントやペットロボットが情報機器のインタフェースとして,またコミュニケーションのパートナーとして注目されている.本論文では,擬人化エージェントの感情を表現するメディアとしての非言語音の有効性を評価した.音声対話型の情報検索エージェントシステムであるEDS (Emotional Dialog System)を対象として擬人化エージェントの感情を表す11種類の感情表現音を制作し実装した.その上で,音の有無,音の数,発音位置の違いによって,感情の感じられやすさ,ユーザの好みがどのように変化するかを実験的に検証した.その結果,非言語音は感情表現のメディアとして有効となり得るものの,使い方によってはユーザに不快感を与えたり,他メディアの表現を阻害するものにもなりかねないため注意が必要であることがわかった.Recently, human-like characters and entertainment robots are paid attention as a new type of computer interface and human's partner. In this paper, we study the effectiveness of nonverbal sound for expressing emotional information. Using EDS (Emotional Dialog System) as a platform, we designed eleven nonverbal sounds to express emotion of the human-like character. Then we made an experiment to clear whether users can feel emotion through the sounds, and whether users like it. As a result, nonverbal sound can be effective for expressing emotional information, but it have to be paid attention to be use because sounds tends to be too persistent and obstruct another media.
著者
池邉亮志 河野 泉 和氣 早苗 上窪真一 岩沢 透 西村 健士
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ヒューマンコンピュータインタラクション(HCI) (ISSN:09196072)
巻号頁・発行日
vol.2000, no.61, pp.49-56, 2000-07-06
参考文献数
7
被引用文献数
1

感情表現を含んだ音声対話によって、擬人化エージェントとの対話を楽しみながら音楽検索を行うEDS (Emotional dialogue system)を開発した。EDSでは、エージェントが提案をするときの感情(提案感情)として3種類、利用者の応答に対する反応の感情(反応感情)として11種類を定義し、これらの感情を表現するために、せりふ、表情、動作、感情表現音、の4つのメディアを利用した。エージェントの表現した感情が適切であるか、また、これらのメディアによる感情表現で、利用者に製作者の意図したエージェントの感情を伝えることが可能かを評価した結果、感情モデル、表現メディアともに妥当な設計ができたとの結論を得た。さらに、感情が対話の進行に影響を与え、利用者を誘導する可能性を見出した。This paper describes an emotional dialogue system, EDS, in which aminated CG character communicates with users via emotional conversation, and assists users in retrieving databases. We defined three kinds of emotion for character's proposal, and eleven kinds of emotion for character's reaction to user's answer, and to express these emotions, we use four media: words, facial expressions, movements, and nonverbal sounds. We carried out an experiment to evaluate whether the character's emotion are suitable for the situation, and are able to taken roughly following the designer's policy. As a result, we confirm the emotion model is designed pretty well and the emotional expressions are made properly. Furthermore, we find that the emotional expression can influence users decision.
著者
河野 泉 池邉亮志 和氣 早苗 上窪真一 岩沢 透 西村 健士
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ヒューマンコンピュータインタラクション(HCI) (ISSN:09196072)
巻号頁・発行日
vol.2000, no.61, pp.43-48, 2000-07-06
参考文献数
5

利用者と擬人化エージェントが感情豊かに音声対話を行い、音楽検索を行うEDS (Emotional dialogue system)を開発した。EDSでは、エージェント主導で検索物件を絞り込んでいく提案指示型対話方式を使っており、本対話状況下の利用者とエージェントの感情をモデル化した。利用者の感情は肯定・否定に興奮の程度を加えて定義し、エージェントの感情は、提案内容に対する自信度と利用者の感情の組み合わせで定義した。EDSで表現する11種類の感情の生成モデルは、基本感情の組み合わせで感情を説明した従来研究とも矛盾なく説明できた。This paper describes an emotional dialogue system in which an animated character communicates with users via emotional conversation and assists users in retrieving databases. This system runs on a "suggest-modify" dialogue model suitable for speech recognition. We defined the emotion model of the character and user in the suggest-modify dialogue. The user's emotions are defined by the level of the excitement in his/her positive or negative answers. The character' s emotions are defined by the confidence level of suggested object and the user' s emotions. The character's emotion model is consistent with the previous studies on the classification of the emotions.