著者
今泉 允聡
出版者
一般社団法人 日本統計学会
雑誌
日本統計学会誌 (ISSN:03895602)
巻号頁・発行日
vol.50, no.2, pp.257-283, 2021-03-05 (Released:2021-03-05)
参考文献数
47

本稿では,深層学習の原理を説明する汎化誤差の理論を概観する.深層学習は,多層ニューラルネットワークをモデルとして用いる統計的手法の一つで,その高い性能から脚光を浴びて久しい.しかしながら,その多層モデルがもたらす複雑な性質により,高い性能を発揮する仕組みの解明は未だ発展途上である.本稿は,この性能の原理を説明する試みのうち,特にモデルの近似誤差や推定量の複雑性誤差に焦点を当て,解明された部分と未解明な部分を議論する.

言及状況

外部データベース (DOI)

はてなブックマーク (1 users, 1 posts)

Twitter (50 users, 52 posts, 162 favorites)

「深層学習の原理に迫る」をポチった。届くまで積んでいた統計学会誌の論文を読もう(理解できるとは言ってない) https://t.co/BW3133Ezb9
深層学習の原理解析:汎化誤差の側面から https://t.co/bcmX553NJV
ベースの内容は、昨年度の統計数理研究所オープンハウスでのチュートリアル講演です。 https://t.co/HaeOLO88t4 なお類似の内容が日本統計学会誌に掲載されています。 https://t.co/Dw4h0VQE0g

収集済み URL リスト