著者
有本 泰子 河津 宏美 大野 澄雄 飯田 仁
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.12, pp.133-138, 2008-02-09
参考文献数
8

音声に含まれる感情情報を自動認識することを目的に、オンラインゲーム中の自然な対話を収録し、感情音声のコーパスを構築した。感情の種類の分類としてプルチックの提案した感情立体モデルのうち、その一次的感情を取り上げ、収録した音声に付与した。また、収録した音声の高さ、長さ、強さ、声質に関わる11種の音響的特徴を抽出し、音響的特徴ごとに分散分析を行ない感情間の有意差を検証した。さらに、分散分析の結果に基づき、特定の感情と他の感情とを判別するための判別分析を行なった。その結果、驚きで79.12%、悲しみで70.11%と高い判別率が得られ、他の感情においてもほぼ60%以上の判別率となった。For a purpose of automatic emotion recognition by acoustic information, we recorded natural dialogues made by two or three online game players to construct an emotional speech corpus. Two evaluators categorized the recorded utterances in a certain emotion, which were defined with referenced to the eight primary emotion of Plutchik's three-dimensional circumplex model. Moreover, 11 acoustic features were extracted from the categorized utterances and analysis of variance(ANOVA) was conducted to verify significant differences between emotions. Based on the result of ANOVA, we conducted discriminant analysis to discriminate one emotion from the others. As a result, high correctness, 79.12% for surprise and 70.11% for sadness, were obtained and over 60% correctness were obtained for every emotions.
著者
有本 泰子 河津 宏美 大野 澄雄 飯田 仁
雑誌
情報処理学会研究報告音楽情報科学(MUS)
巻号頁・発行日
vol.2008, no.12(2008-MUS-074), pp.133-138, 2008-02-09

音声に含まれる感情情報を自動認識することを目的に、オンラインゲーム中の自然な対話を収録し、感情音声のコーパスを構築した。感情の種類の分類としてプルチックの提案した感情立体モデルのうち、その一次的感情を取り上げ、収録した音声に付与した。また、収録した音声の高さ、長さ、強さ、声質に関わる11種の音響的特徴を抽出し、音響的特徴ごとに分散分析を行ない感情間の有意差を検証した。さらに、分散分析の結果に基づき、特定の感情と他の感情とを判別するための判別分析を行なった。その結果、驚きで79.12%、悲しみで70.11%と高い判別率が得られ、他の感情においてもほぼ60%以上の判別率となった。
著者
有本 泰子 河津 宏美 大野 澄雄 飯田 仁
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音声言語情報処理(SLP) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.12, pp.133-138, 2008-02-09

音声に含まれる感情情報を自動認識することを目的に、オンラインゲーム中の自然な対話を収録し、感情音声のコーパスを構築した。感情の種類の分類としてプルチックの提案した感情立体モデルのうち、その一次的感情を取り上げ、収録した音声に付与した。また、収録した音声の高さ、長さ、強さ、声質に関わる11種の音響的特徴を抽出し、音響的特徴ごとに分散分析を行ない感情間の有意差を検証した。さらに、分散分析の結果に基づき、特定の感情と他の感情とを判別するための判別分析を行なった。その結果、驚きで79.12%、悲しみで70.11%と高い判別率が得られ、他の感情においてもほぼ60%以上の判別率となった。For a purpose of automatic emotion recognition by acoustic information, we recorded natural dialogues made by two or three online game players to construct an emotional speech corpus. Two evaluators categorized the recorded utterances in a certain emotion, which were defined with referenced to the eight primary emotion of Plutchik's three-dimensional circumplex model. Moreover, 11 acoustic features were extracted from the categorized utterances and analysis of variance(ANOVA) was conducted to verify significant differences between emotions. Based on the result of ANOVA, we conducted discriminant analysis to discriminate one emotion from the others. As a result, high correctness, 79.12% for surprise and 70.11% for sadness, were obtained and over 60% correctness were obtained for every emotions.
著者
森 大毅 有本 泰子 能勢 隆 永田 智洋
出版者
宇都宮大学
雑誌
基盤研究(B)
巻号頁・発行日
2014-04-01

(1) 叫び声を誘発しやすいオンラインゲームをプレイする状況のコーパスを開発した。このコーパスには既存コーパスの10倍以上の頻度で叫び声が含まれている。叫び声の音響分析により、通常語彙や感動詞との音響的特性の違いを明らかにした。(2) 感情表出系感動詞の形態を分類し、多様な形態を持つ「あ」を合成した。合成音声を用いた知覚実験により、形態とパラ言語情報との関係を明らかにした。(3) 自然対話コーパスから笑い声の構成要素の変動要因を明らかにするとともに、コーパスベース音声合成を応用した多様な笑い声合成を実現した。知覚実験により、定義した変動要因を考慮することにより自然性が向上することがわかった。
著者
有本 泰子 大野 澄雄 飯田 仁
出版者
一般社団法人 言語処理学会
雑誌
自然言語処理 (ISSN:13407619)
巻号頁・発行日
vol.14, no.3, pp.147-163, 2007-04-10 (Released:2011-03-01)
参考文献数
19
被引用文献数
2 5

音声認識の精度の向上にともなって, コールセンターなどへの自動音声応答システムの導入の要求が高まり, 人間がコンピュータと対話する機会も増加する傾向にある.これまでの対話システムは言語情報のみを扱い, そのパラ言語情報を扱うことは少ないため, 人間同士の対話と比較すると, コンピュータとの対話ではコンピュータが得る人間の情報は小さい.本研究では音声の音響的特徴と言語表現の特徴から推定可能な「怒り」の感情を検出するために, 感情の程度による音響的・言語的変化を分析し, コンピュータと人間とのインタラクションにおける人間の感情を捉えることを目指す.非対面の擬似対話により, 認識性能に対する不満からくる「苛立ち」や, クレーム対応時におけるユーザの「腹立ち」の内的感情を表現した怒りの音声を収録し, 主観評価により感情の程度を付与した音声データを作成した.本論では, 怒りの感情を含むと判定された発話について, つぎの3種の特性, 声の高さや強さ等の音響的特徴, 言語形態上の語彙使用の特徴, 語用論的な特徴である文末表現の特徴に着目し, 発話者の感情表現とその言語表現・音響的特徴との定量的な関係を分析し, 怒り表現の音声言語の特徴付けを試みた.とくに, 接続助詞「けど」, 「ので」の主節が現れずに発話が中止する接続助詞中止型において, 怒りの程度が高いことを明らかにした.
著者
永岡 篤 森 大毅 有本 泰子
出版者
一般社団法人 日本音響学会
雑誌
日本音響学会誌 (ISSN:03694232)
巻号頁・発行日
vol.73, no.11, pp.682-693, 2017

<p>感情音声コーパスに付与されている感情ラベルには,次元で記述されたものとカテゴリで記述されたものがあり,これらには互換性がない。複数コーパスを統合し大規模なコーパスとして扱うためには感情ラベルの共通化が必要であるが,人手による感情ラベル付与はコストが高い。音声からの感情認識の技術を利用すれば異種感情ラベルの自動付与が可能だが,その推定精度は十分とは言えない。本論文では,音声から得られる特徴量に加え,それぞれの感情音声コーパスにもともと付与されている感情ラベルをも推定器への入力として利用した異種感情ラベル推定手法を提案する。まず,感情カテゴリラベルを持つコーパスOGVCに対する感情次元ラベルの推定実験を行った。モデル学習用のコーパスに付与されている感情ラベルとしては,次元とカテゴリの両方が利用できる場合,及び次元だけが利用できる場合についてそれぞれ検討した。次に,感情次元ラベルを持つコーパスUUDBに対する感情カテゴリラベルの推定実験を同様に実施した。実験の結果,対象コーパスにもともと付与されている感情ラベルの併用により,異種感情ラベルの推定精度を向上できることが示された。特に,UUDBに対する感情カテゴリラベルの推定においては,モデル学習用のコーパスが感情次元ラベルを持たず,推定された感情次元ラベルで代用した場合でも,推定精度を改善できることが分かった。</p>
著者
村田 和義 中野 有紀子 榎本 美香 有本 泰子 朝 康博 佐川 浩彦
出版者
一般社団法人電子情報通信学会
雑誌
電子情報通信学会技術研究報告. HIP, ヒューマン情報処理 (ISSN:09135685)
巻号頁・発行日
vol.106, no.610, pp.25-30, 2007-03-16

マルチモーダルコミュニケーションでは,音声,ジェスチャ,オブジェクト操作など異なるモダリティーの振る舞いが同時にかつ適切なタイミングで生じている.本研究では特にテレビパソコン操作時におけるマルチモーダル対話型ヘルプエージェントに注目する.まずWizard-of-Oz法を用いて利用者-ヘルプエージェント間の対話例を収集し,対話的なヘルプエージェントでは利用者の状態の確認とそれに伴う補助的な説明が行われることを示す.さらに利用者-エージェント間の対話状態を予測するための確率モデルをベイジアンネットワークにより構築し,ヘルプエージェントが補助的な説明を行う最適なタイミングの予測を行う.