Ceek.jp Altmetrics (α ver.)
文献ランキング
合計
1ヶ月間
1週間
1日間
文献カレンダー
新着文献
すべて
2 Users
5 Users
10 Users
新着投稿
Yahoo!知恵袋
レファレンス協同データベース
教えて!goo
はてなブックマーク
OKWave
Twitter
Wikipedia
検索
ウェブ検索
ニュース検索
ホーム
文献詳細
3
0
0
0
Deep Learning におけるコストを考慮した Dropout率制御に関する検証
著者
玉城翔
當間愛晃
赤嶺有平
山田孝治
遠藤聡志
雑誌
第77回全国大会講演論文集
巻号頁・発行日
vol.2015, no.1, pp.47-49, 2015-03-17
入力データからの特徴抽出器としての機能を持つニューラルネットにおいて、深い階層構造の構築は、より抽象度の高い特徴表現の獲得を可能にしている。更に、この特徴の汎化能力の向上にDropoutという技術が大きく貢献している。このDropoutにおいて経験的観点でのパラメータ設定が通例だが、その理由や妥当性については十分な検証がされていない。パラメータ設定によっては学習コストが高くなることも想定されるが、問題の複雑さ、用意したニューロン数、接続前後のニューロン状況等に応じて適切なDropout率があると考えられる。そこで、我々はニューラルネットにおける評価関数の値を使い、最適なDropout率の設定が可能かどうかの検証をする。
言及状況
変動(ピーク前後)
変動(月別)
分布
はてなブックマーク
(2 users, 2 posts)
[deep-learning][artificial-neural-network][unsupervised-learning][cluster-analysis][analytics][algorithm][machine-learning]
[neuralnetwork][deep learning]
Twitter
(1 users, 1 posts, 0 favorites)
収集済み URL リスト
https://ipsj.ixsq.nii.ac.jp/ej/index.php?active_action=repository_view_main_item_detail&page_id=13&block_id=8&item_id=142883&item_no=1
(3)