著者
西山 昴志 當間 愛晃 赤嶺 有平 山田 孝治 遠藤 聡
雑誌
研究報告コンピュータビジョンとイメージメディア(CVIM) (ISSN:21888701)
巻号頁・発行日
vol.2020-CVIM-220, no.4, pp.1-3, 2020-01-16

日本においてアニメの歴史は長くそれに伴い様々な変化を経ている.例えば 1980 年代はセルアニメーションの作品が多かったが,現在ではコンピュータの発展に伴い,ほとんどがコンピュータアニメーションとなっている.製作方法の変化や技術の発展に伴い,アニメ作品の画風 (絵タッチ,背景,色合い等) も同様に変化していると考えられる.画風を変換する研究分野においては,芸術絵画や写真の画風を別の画風に変換する方法が提案されている.そこで,対象画像をアニメの静止画像とし,セルアニメーションが主流であった年代のアニメ画像を,現代のデジタル作画のアニメの画風に変換するタスクを考えた.本研究では,Image-to-image の手法の 1 つである CycleGAN をベースにアニメ画像の画風変換結果を報告する.
著者
西銘 大喜 遠藤 聡志 當間 愛晃 山田 孝治 赤嶺 有平
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会論文誌 (ISSN:13460714)
巻号頁・発行日
vol.32, no.5, pp.F-H34_1-8, 2017-09-01 (Released:2017-09-01)
参考文献数
20
被引用文献数
6

Facial expressions play an important role in communication as much as words. In facial expression recognition by human, it is difficult to uniquely judge, because facial expression has the sway of recognition by individual difference and subjective recognition. Therefore, it is difficult to evaluate the reliability of the result from recognition accuracy alone, and the analysis for explaining the result and feature learned by Convolutional Neural Networks (CNN) will be considered important. In this study, we carried out the facial expression recognition from facial expression images using CNN. In addition, we analysed CNN for understanding learned features and prediction results. Emotions we focused on are “happiness”, “sadness”, “surprise”, “anger”, “disgust”, “fear” and “neutral”. As a result, using 32286 facial expression images, have obtained an emotion recognition score of about 57%; for two emotions (Happiness, Surprise) the recognition score exceeded 70%, but Anger and Fear was less than 50%. In the analysis of CNN, we focused on the learning process, input and intermediate layer. Analysis of the learning progress confirmed that increased data can be recognised in the following order “happiness”, “surprise”, “neutral”, “anger”, “disgust”, “sadness” and “fear”. From the analysis result of the input and intermediate layer, we confirmed that the feature of the eyes and mouth strongly influence the facial expression recognition, and intermediate layer neurons had active patterns corresponding to facial expressions, and also these activate patterns do not respond to partial features of facial expressions. From these results, we concluded that CNN has learned the partial features of eyes and mouth from input, and recognise the facial expression using hidden layer units having the area corresponding to each facial expression.
著者
伊集 竜之 遠藤 聡志 山田 孝治 當間 愛晃 赤嶺 有平
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集
巻号頁・発行日
vol.2015, pp.1M45, 2015

<p>Twitterを利用するユーザの年齢層を推定する場合、ライフスタイルによってツイートの投稿時間帯が異なるため、投稿時間帯が推定に有効な情報の一つと考えられる。この情報を活用する場合、同年齢層内で複数のライフスタイルが存在することを考慮すべきである。そこで、本研究では各年齢層内で期間毎の投稿率を素性としたユーザクラスタを作成し、作成したクラスタを基礎とする推定手法の提案を行う。</p>
著者
小野 裕作 當間 愛晃 遠藤 聡志
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集 第22回全国大会(2008)
巻号頁・発行日
pp.269, 2008 (Released:2009-07-31)

ソーシャルブックマークの問題点として、タグの表記揺れやタグ付け自体に労力がかかる、などがある。 本研究はこれらを解決するために、ユーザーの履歴を利用してタグ付けを自動化するシステムの開発を目的とする。
著者
玉城翔 當間愛晃 赤嶺有平 山田孝治 遠藤聡志
雑誌
第77回全国大会講演論文集
巻号頁・発行日
vol.2015, no.1, pp.47-49, 2015-03-17

入力データからの特徴抽出器としての機能を持つニューラルネットにおいて、深い階層構造の構築は、より抽象度の高い特徴表現の獲得を可能にしている。更に、この特徴の汎化能力の向上にDropoutという技術が大きく貢献している。このDropoutにおいて経験的観点でのパラメータ設定が通例だが、その理由や妥当性については十分な検証がされていない。パラメータ設定によっては学習コストが高くなることも想定されるが、問題の複雑さ、用意したニューロン数、接続前後のニューロン状況等に応じて適切なDropout率があると考えられる。そこで、我々はニューラルネットにおける評価関数の値を使い、最適なDropout率の設定が可能かどうかの検証をする。
著者
上原 良太 當間 愛晃
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会第二種研究会資料
巻号頁・発行日
vol.2021, no.54, 2021

<p>Linked Open Dataは,コンピュータ処理に適したデータを公開することで,データの利活用を推進するサービスの1つである.中でもWikipediaを知識リソースとするDBpediaは,多くのユーザが利用している.しかし,データの中身としては,類似情報や利用者にとって必要ない情報が多数存在しており,データの抽出方法を深く考えながら利用しなければならないといった問題点が存在する.そこで本稿では,DBpedia Japaneseを対象に,類似情報に関する複数の異表記意味リンクへのマルチラベル分類による統合手法を提案する.本稿ではまず特定のカテゴリを対象として調査した異表記意味リンクについて報告する.その後,複数の意味リンクを出力とするマルチラベル分類を利用して異表記意味リンクの統合結果を示し,考察する.</p>
著者
澤崎 夏希 遠藤 聡志 當間 愛晃 山田 孝治 赤嶺 有平
出版者
日本知能情報ファジィ学会
雑誌
知能と情報 (ISSN:13477986)
巻号頁・発行日
vol.32, no.2, pp.668-677, 2020

<p>深層学習によって様々な分類問題が解決されているが,分類カテゴリ毎のデータ量が不均衡な問題を扱う場合,多くの課題がある.不均衡データへの対策として,少量カテゴリのデータ量を増加させ均衡化する手法がある.これをかさ増しと呼び画像処理分野ではノイズの付与や回転による方法が一般的である.最近ではGenerative Adversarial Network: GANによる画像生成手法を用いる場合がある.一方で,自然言語処理の分野では有効なかさ増し手法はいまだ確立されておらず,人手によるかさ増しが行われている.人手によるかさ増しではルールの設計など負担が大きく,機械的なかさ増し手法が必要となる.しかし,文章生成における機械的なかさ増しは画像生成に比べ不安定である.これは文章の特徴獲得の難しさが原因だと考えられる.そこで本論文ではグラフ情報に注目した機械学習による文章生成手法を提案する.CaboChaによって生成されたグラフ情報をGraph Convolutionにより畳み込み処理する.提案するGANにより生成されたかさ増し文章を3つの計算実験により評価し有効性を示した.</p>
著者
澤崎 夏希 遠藤 聡志 當間 愛晃 山田 孝治 赤嶺 有平
出版者
Japan Society for Fuzzy Theory and Intelligent Informatics
雑誌
知能と情報 (ISSN:13477986)
巻号頁・発行日
vol.32, no.2, pp.668-677, 2020-04-15 (Released:2020-04-15)
参考文献数
23

深層学習によって様々な分類問題が解決されているが,分類カテゴリ毎のデータ量が不均衡な問題を扱う場合,多くの課題がある.不均衡データへの対策として,少量カテゴリのデータ量を増加させ均衡化する手法がある.これをかさ増しと呼び画像処理分野ではノイズの付与や回転による方法が一般的である.最近ではGenerative Adversarial Network: GANによる画像生成手法を用いる場合がある.一方で,自然言語処理の分野では有効なかさ増し手法はいまだ確立されておらず,人手によるかさ増しが行われている.人手によるかさ増しではルールの設計など負担が大きく,機械的なかさ増し手法が必要となる.しかし,文章生成における機械的なかさ増しは画像生成に比べ不安定である.これは文章の特徴獲得の難しさが原因だと考えられる.そこで本論文ではグラフ情報に注目した機械学習による文章生成手法を提案する.CaboChaによって生成されたグラフ情報をGraph Convolutionにより畳み込み処理する.提案するGANにより生成されたかさ増し文章を3つの計算実験により評価し有効性を示した.
著者
西銘 大喜 遠藤 聡志 當間 愛晃 山田 孝治 赤嶺 有平
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集 第29回全国大会(2015)
巻号頁・発行日
pp.3L43, 2015 (Released:2018-07-30)

本研究では、ディープニューラルネットワーク(DNN)と表情画像を用いて喜び、悲しみ、驚き、怒り、嫌悪、恐怖、無表情の7感情の推定を行う。6層のDNNでは、65%の認識精度が確認され精度が良い表情は喜び、驚き、無表情の3種類であった。人間との比較実験でも同様の結果が確認され、画像だけの情報では悲しみ、怒り、嫌悪、恐怖の4感情は認識が難しいと考えられる。より多層のDNNを用いた実験と共に報告する。
著者
長嶺 一輝 遠藤 聡志 山田 孝治 當間 愛晃 赤嶺 有平
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集
巻号頁・発行日
vol.2019, pp.3K4J201, 2019

<p>近年,深層強化学習エージェントは驚くべき発展を見せ,素晴らしい成果を挙げている.一方で,エージェントの行動のみを視認して,根拠となった画像特徴を推測するのは困難であるという問題がある.これに対し,エージェントが持つニューラルネットの入出力を用いて判断根拠を可視化することで,行動を分析しようとする試みが行われている.可視化手法の一つに顕著性マップの生成がある.しかし,行動毎に顕著性マップを得る手法はあまり研究されていない.本稿では,深層強化学習エージェントの行動を視覚的に分析する際に,エージェントの持つニューラルネットから各行動ごとに顕著性マップを得る手法を提案する.実験の結果,環境から得られる状態観測内のオブジェクトが,エージェントの各行動に及ぼす影響を可視化する顕著性マップを得られた.</p>
著者
西銘 大喜 遠藤 聡志 當間 愛晃 山田 孝治 赤嶺 有平
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会論文誌
巻号頁・発行日
vol.32, no.5, pp.F-H34_1-8, 2017
被引用文献数
6

<p>Facial expressions play an important role in communication as much as words. In facial expression recognition by human, it is difficult to uniquely judge, because facial expression has the sway of recognition by individual difference and subjective recognition. Therefore, it is difficult to evaluate the reliability of the result from recognition accuracy alone, and the analysis for explaining the result and feature learned by Convolutional Neural Networks (CNN) will be considered important. In this study, we carried out the facial expression recognition from facial expression images using CNN. In addition, we analysed CNN for understanding learned features and prediction results. Emotions we focused on are "happiness", "sadness", "surprise", "anger", "disgust", "fear" and "neutral". As a result, using 32286 facial expression images, have obtained an emotion recognition score of about 57%; for two emotions (Happiness, Surprise) the recognition score exceeded 70%, but Anger and Fear was less than 50%. In the analysis of CNN, we focused on the learning process, input and intermediate layer. Analysis of the learning progress confirmed that increased data can be recognised in the following order "happiness", "surprise", "neutral", "anger", "disgust", "sadness" and "fear". From the analysis result of the input and intermediate layer, we confirmed that the feature of the eyes and mouth strongly influence the facial expression recognition, and intermediate layer neurons had active patterns corresponding to facial expressions, and also these activate patterns do not respond to partial features of facial expressions. From these results, we concluded that CNN has learned the partial features of eyes and mouth from input, and recognise the facial expression using hidden layer units having the area corresponding to each facial expression.</p>
著者
當間 愛晃 遠藤 聡志 岡崎 威生 石原 洋 宮城 渉 大城 翔 植木 宏 高野 敦伸 稲荷 幹夫 比嘉 徹
出版者
一般社団法人電子情報通信学会
雑誌
電子情報通信学会技術研究報告. KBSE, 知能ソフトウェア工学 (ISSN:09135685)
巻号頁・発行日
vol.105, no.652, pp.19-24, 2006-03-06
被引用文献数
1

電子マネーユーザに対し購買履歴に基づいたマーケティングを行うための基礎データとなる特徴抽出を行い,ユーザをクラスタリングする方法について検討を行う.特に,ユーザプロファイルおよび購買履歴情報に対し自己組織化マップや協調フィルタリング等を適用したクラスタリング抽出のために検討した事項や,抽出結果について報告を行う.