著者
鈴木 大慈
出版者
一般社団法人 日本統計学会
雑誌
日本統計学会誌 (ISSN:03895602)
巻号頁・発行日
vol.50, no.2, pp.229-256, 2021-03-05 (Released:2021-03-05)
参考文献数
63

本稿では深層学習がなぜうまくいくのかという疑問に答えるべくその統計理論を紹介する.特にその関数近似能力および推定能力に関して議論し,深層学習には対象の関数に合わせた適応的推定が可能であることを紹介する.そのため,深層学習の万能近似能力を紹介した後,Barronクラスや非等方的Besov空間における推定理論とミニマックス最適性を議論し,線形推定量と比べて次元の呪いを回避できることや関数の滑らかさの非一様性への適応性といった優れた性質を持っていることを紹介する.最後に,パラメータがサンプルサイズよりも多いニューラルネットワークがいかに汎化するかをカーネル法の観点から解析した汎化誤差理論を紹介する.

言及状況

外部データベース (DOI)

Twitter (42 users, 45 posts, 143 favorites)

https://t.co/HmKNyyZp78
この辺にも関数空間論が出てくるのねー。(Triebel の文献が引用されてんじゃんー。) https://t.co/ygkJ28nXyV
深層学習の統計理論のPDF発見…! J-STAGE Articles - 深層学習の統計理論 https://t.co/zZXz4KzoX0 キーワード: 深層学習, Besov空間, Barronクラス, カーネル法, スパース推定, ミニマックス最適性
jstageってフリーで読めるの多いのねー https://t.co/WRW8PROKTY
鈴木大慈(2021)「深層学習の統計理論」『日本統計学会誌』50(2):229-256. https://t.co/3iHyTEaHA9
https://t.co/pret34Axcr

収集済み URL リスト