著者
今泉 允聡
出版者
一般社団法人 日本統計学会
雑誌
日本統計学会誌 (ISSN:03895602)
巻号頁・発行日
vol.50, no.2, pp.257-283, 2021-03-05 (Released:2021-03-05)
参考文献数
47

本稿では,深層学習の原理を説明する汎化誤差の理論を概観する.深層学習は,多層ニューラルネットワークをモデルとして用いる統計的手法の一つで,その高い性能から脚光を浴びて久しい.しかしながら,その多層モデルがもたらす複雑な性質により,高い性能を発揮する仕組みの解明は未だ発展途上である.本稿は,この性能の原理を説明する試みのうち,特にモデルの近似誤差や推定量の複雑性誤差に焦点を当て,解明された部分と未解明な部分を議論する.

言及状況

外部データベース (DOI)

はてなブックマーク (2 users, 2 posts)

Twitter (72 users, 76 posts, 216 favorites)

https://t.co/pZixGiILtD 深層学習の原理解析:汎化誤差の側面から 良い。平坦化らへんを知りたくて読み始めたのだけど、難しくて読めない部分が多いものの、すごく興味深い話もあって良かった。二重降下とかあるんだなぁ。
#こんばんは #おはよう #こんにちは #京都 #大阪 #滋賀 #東京 一応出来るようだが、2022年12月5日以降は使えなくなるそうだ これはかつてのGoogleURL短縮機能と同じだ 便利な機能がどんどん使えなくなっていく・・・ 多様体仮説について・・・ RT https://t.co/pFkOmW6j30
Paper1: 深層学習の原理解析:汎化誤差の側面から 汎化誤差 = 経験誤差 + 差分(複雑性誤差) と分解し、経験誤差に対する理論と、複雑性誤差に対する理論や、その限界を紹介していた。 非常によくまとまっていて良かった!
@tiketec @sol_4th 実は線形回帰でも同様の現象おこるらしいよ (https://t.co/R4mYuZaOYL の定理4.7)
@hayashiyus ランジュバンの解説ありました https://t.co/R8hggQu47X https://t.co/y45S9y4ZcF https://t.co/w2R8GP6nB6 https://t.co/cl5f0UQj8c 深層学習の汎化の概論 https://t.co/j1VPLe6wX4
とんでもない読み物、発見してしまった 深層学習の原理解析:汎化誤差の側面から https://t.co/1GQZxFpkmj
今泉允聡(2021)「深層学習の原理解析:汎化誤差の側面から」『日本統計学会誌』50(2):257-283. https://t.co/gkZkeIiEl1
「深層学習の原理に迫る」をポチった。届くまで積んでいた統計学会誌の論文を読もう(理解できるとは言ってない) https://t.co/BW3133Ezb9
ベースの内容は、昨年度の統計数理研究所オープンハウスでのチュートリアル講演です。 https://t.co/HaeOLO88t4 なお類似の内容が日本統計学会誌に掲載されています。 https://t.co/Dw4h0VQE0g

収集済み URL リスト