著者
大道 博文 林 柚季 目良 和也 黒澤 義明 竹澤 寿幸
出版者
人工知能学会
雑誌
2019年度 人工知能学会全国大会(第33回)
巻号頁・発行日
2019-04-08

近年,インターネット上でCGアバターを介した他者とのコミュニケーションが普及しつつある.しかしアバターの表情・動作パターンを生成する際,複数の感情が混在する表情やある感情を抑圧しているような表情を表現するための典型的な特徴や統一された指標は無く,モデル作成者の経験や感覚に依るところが大きい.そのため,非熟練者や表情自動合成手法による表情モデルの作成は現状困難である.そこで本研究では,感情の部分的表出(Action Unit(AU))の組み合わせに基づいて複数の表情アニメーション動画を作成し,Shefféの一対比較法を用いて表出したい表情に対する各AUの効果について分析を行う.本研究では“ツンデレ”と呼ばれる「快感情の抑圧表情」を対象として,Ekmanの知見に基づき“中立化”と“隠蔽”の二種類の抑圧表現を用いる.実験の結果,中立化によるツンデレ表現に最も適しているAUの組み合わせは,AU6+12(幸福の目,頬,口の動作)が弱いか無い,かつ赤面が起こっている表情であった.また隠蔽によるツンデレ表現に最も適しているAUの組み合わせは,AU4(怒りの眉)かつ赤面が表出している表情であった.
著者
目良 和也 青山 正人 大道 博文 黒澤 義明 竹澤 寿幸
出版者
Japan Society for Fuzzy Theory and Intelligent Informatics
雑誌
知能と情報 (ISSN:13477986)
巻号頁・発行日
vol.32, no.6, pp.944-955, 2020-12-15 (Released:2020-12-15)
参考文献数
17

CGアバターによる遠隔コミュニケーションにおいてユーザの気持ちを的確に伝えるには,言語情報だけでなく,口調,表情,動作などのノンバーバル情報も重要である.CGアバターに基本感情を付与する研究はこれまでも行われているが,皮肉や照れ隠しのような本心を隠そうとしている表情を表現するための手法は確立されていない.そこで本論文では,顔部位の変化の随意不随意性に注目し,本心感情を不随意な顔部位の変化,演技感情を随意に動かせる顔部位の変化によって表現することで,外面と内面の感情を選択的に表現する手法を提案する.本論文ではツンデレ表情を想定し,本心感情を喜び,演技感情を平静あるいは怒りとした事例を用いて説明する.提案手法に基づいて作成した表情アニメーションについて印象評定を行った結果,不随意的な喜び顔部位である“頬の紅潮”が表出していることが「喜びを隠蔽しようとしている」という印象を強くしていた.一方,頬の紅潮の代わりに目や口など随意的な喜び顔部位を用いたところ,逆に「喜んでいるふりをしている」という印象を強くしていた.このことより,本心感情を不随意な顔部位の変化によって表出することで,内面の感情を選択的に表現できることが確認できた.
著者
大道 博文 林 柚季 目良 和也 黒澤 義明 竹澤 寿幸
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集 第33回全国大会(2019)
巻号頁・発行日
pp.4Rin114, 2019 (Released:2019-06-01)

近年,インターネット上でCGアバターを介した他者とのコミュニケーションが普及しつつある.しかしアバターの表情・動作パターンを生成する際,複数の感情が混在する表情やある感情を抑圧しているような表情を表現するための典型的な特徴や統一された指標は無く,モデル作成者の経験や感覚に依るところが大きい.そのため,非熟練者や表情自動合成手法による表情モデルの作成は現状困難である.そこで本研究では,感情の部分的表出(Action Unit(AU))の組み合わせに基づいて複数の表情アニメーション動画を作成し,Shefféの一対比較法を用いて表出したい表情に対する各AUの効果について分析を行う.本研究では“ツンデレ”と呼ばれる「快感情の抑圧表情」を対象として,Ekmanの知見に基づき“中立化”と“隠蔽”の二種類の抑圧表現を用いる.実験の結果,中立化によるツンデレ表現に最も適しているAUの組み合わせは,AU6+12(幸福の目,頬,口の動作)が弱いか無い,かつ赤面が起こっている表情であった.また隠蔽によるツンデレ表現に最も適しているAUの組み合わせは,AU4(怒りの眉)かつ赤面が表出している表情であった.
著者
大道 博文 目良 和也 黒澤 義明 竹澤 寿幸
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集
巻号頁・発行日
vol.2020, pp.3Rin404, 2020

<p>近年,VRゲームやVirtual YouTuberなどアバターを介したコミュニケーションが普及しつつある.このようなアバターを通じてユーザの心理状態を伝達させるために,特定の感情を示す表情をアバターに表出させる方法や,自身の表情や動作をアバターと同期させる方法がよく用いられている.代表的な表情同期手法としてFace Trackingが挙げられるが,表情を持たない収録済みの音声や合成音声から表情を作り出すことができない.そこで本研究では,音声のみを用いて表情アニメーションの自動生成を行うことを提案する.具体的には発話音声の音響的特徴量を入力とし,表情動画から解析されたAction Unitのパラメータを教師データとして学習モデルを設計する.評価として,既存手法(CNN)と提案手法(CNN-LSTM)のLoss値を比較した.実験の結果,提案手法のLoss値の方が既存手法よりも下がっていることを確認した.また,出力結果を時系列にグラフ化すると提案手法の方がより滑らかに推移していることも確認できた.このことは表情アニメーションにおいて自然な表情として知覚できることを示している.</p>