著者
長沼 大樹 横田 理央
雑誌
第81回全国大会講演論文集
巻号頁・発行日
vol.2019, no.1, pp.315-316, 2019-02-28

深層学習では極めて膨大な学習データを用いて学習することで他の機械学習手法を圧倒する高い性能を発揮している一方, その膨大な計算時間のため,大規模並列化によって学習時間を短縮するのが喫緊の課題である. 深層学習における問題は訓練データとの誤差を表す関数の最小化問題に帰結するが, 近年の研究によって,大規模並列化に伴うバッチサイズの増加により得られる学習モデルの汎化性能が劣化することが示されている. 本研究ではこの問題の解決方法として目的関数に対する平滑化に着目し, バッチサイズの増加を伴っても汎化性能を劣化させない目的関数の平滑化手法について検証を行う.

言及状況

Twitter (1 users, 1 posts, 0 favorites)

バッチ学習など、学習アルゴリズムに確率的挙動を組み込むのではなく、学習セットを変動させることにより確率的勾配降下法を実現するのであれば、データにノイズを加える方法もあるのではないか?と思って調べてみた。 DA=Data Augmentation と呼ぶらしい。 ふむふむ。 https://t.co/A40pJWpHfI

収集済み URL リスト