Ceek.jp Altmetrics (α ver.)
文献ランキング
合計
1ヶ月間
1週間
1日間
文献カレンダー
新着文献
すべて
2 Users
5 Users
10 Users
新着投稿
Yahoo!知恵袋
レファレンス協同データベース
教えて!goo
はてなブックマーク
OKWave
Twitter
Wikipedia
検索
ウェブ検索
ニュース検索
ホーム
文献詳細
883
0
0
0
OA
深層ニューラルネットの積分表現理論
著者
園田 翔
出版者
早稲田大学
巻号頁・発行日
pp.11-214, 2016
早大学位記番号:新7508
言及状況
変動(ピーク前後)
変動(月別)
分布
はてなブックマーク
(16 users, 16 posts)
[DeepLearning][Math]
後で見る。
[機械学習]
[あとで読む]
[ニューラルネット][ネットワーク]
[neuro][機械学習] 「深層ニューラルネットの積分表現理論」早稲田の園田翔さんの博士論文なのだが頭の2章だけでも最近のディープラーニング動向が簡潔にまとまっててとてもよい。本論ちゃんと読みたい。
[ニューラルネット][あとで読む]
[ディープラーニング][いつか理解したい]
[あとで読む]
[deeplearning]
深層学習の積分表現理論
Twitter
(867 users, 1029 posts, 314 favorites)
メモ ニューラルネットの数学的定式化の解説スライド https://t.co/q6dOrDvOlZ 原論文(214ページの大著)にかなり包括的にまとめられている https://t.co/FZur4GoKNY https://t.co/yNDbbHvpVA
ここ本当に感動 https://t.co/VGYUg9DHDb https://t.co/X4Y9BkhXus
@nopu_dansant 博士論文のダウンロード数今でも伸びてて,原稿書いたとき 76835 だったのに今見たら 78054 になってる https://t.co/Mv97hj738b
後でちょっと読む https://t.co/xS8ueDtDe9
個人的な数学力の目標はラボの先輩のD論を理解することです。先は長い。 https://t.co/RepAQSEdeS
気になる https://t.co/JETCy3vfqM
読む https://t.co/xCKXrPEGWi
これですか? https://t.co/V5AhhLzo5o https://t.co/waeCYFZR3V
なんか見つけた。 https://t.co/EajCFFmdaN
@7pitps 後、さらに数学的難易度が高くなりますが ニューラルネットの積分表現理論っていう論文があります(https://t.co/W0wq5Kk11q) 必要な数学の知識ですが 立命館4回生までの数学系科目を全部習得していても厳しいかもっていう感じです(読んで見るのが一番早いと思いますが…)
目下、園田氏の”深層ニューラルネットの積分表現理論”を読み、筋がちゃんと追えるくらいの理解をしたい。 https://t.co/IrBke8cXid
@N_Y_Big_Apple 私は少し前にこれの第6章まで目を通しました。(解析よくわからないので細かいところはよく分からなかったよ
@reroot45450721 速習 強化学習 ―基礎理論とアルゴリズム(Csaba Szepesvari) とか 統計的学習理論(金森 敬文 ) とか https://t.co/BtScaAXFST とかは数学科向きのような気がします.(僕は自分の数学の知識が足りないので読めてないですが…)
https://t.co/7n1cUgDAOd そういえばまだ読めてない
@king_of_theneet 園田さんのニューラルネットの積分表現おもしろいです(熱核の記述もある) 48ページを見よ https://t.co/w91EmH3lvs
ほんとに途轍もなく分かりやすいです。この長さに必要なものを完全に詰め込んでいて園田さんの哲学を感じます。 https://t.co/cHcXHGV3wW
(このテーブルは勉強になる)無限個の中間層素子をもつニューラルネットは、二乗可積分関数の空間 L2 や、連続関数の空間 C にコンパクト開位相を入れた空間などで稠密=万能関数近似装置となることができる。 1. https://t.co/GovYP82BTT 2. https://t.co/hF2K3H0hdD https://t.co/jLq0TLX33l
積分変換の反転公式をみると、最適なカーネル関数を見つけることと、最適なリッジレット変換を考えることは数学的に等価だということがわかる。DNNの解析には関数解析が重要になる、と色々な人が言っている。おそらくそれは正しいと思う。 1. https://t.co/MjzQABNbWw 2. https://t.co/hF2K3H0hdD https://t.co/fQXpPJvjJT
園田翔さんの博士論文『深層ニューラルネットの積分表現理論』を勉強させていただいている。①無限個の中間層素子をもつNNは万能近似能力をもつ、②近似対象 f(x) を積分変換すると中間層素子のパラメータ分布が得られる、③輸送解釈に基づくDNNの積分表現の発見 https://t.co/MjzQABNbWw https://t.co/wgAuBCvxmx
https://t.co/8HiqUUbvhs
深層ニューラルネットの積分表現理論 - 早稲田大学リポジトリ/園田翔 - 2017 https://t.co/DCoogbmSLs
深層学習の積分表現: https://t.co/VJcLNgqMPG
深層ニューラルネットの積分表現理論 https://t.co/AFYyShMjFq
@Kingyopapaiya 関数解析としての理論はこちら。https://t.co/yEZprSkAE8
@ranoiaru お返事ありがとうございます! 「深層ニューラルネットの積分表現理論」(https://t.co/iadznRgfNI) を読んで見てるのですが, Ridgelet 変換を全く知らなくて困ってます. ひとまず位置付けを知りたくて, 入門的な論文や記事があれば教えて欲しいですm(_ _)m
@bambook1984 カーネル法ではなく、どちらかと言うと最近一部界隈で話題のこの辺りの話です。 https://t.co/3Ose6qlGAY
1件のコメント https://t.co/Zpn7CPaeZa “深層ニューラルネットの積分表現理論; Integral Representation Theory of Deep Neural Networks” https://t.co/QvFy0Uk84r
1件のコメント https://t.co/Zpn7CPaeZa “深層ニューラルネットの積分表現理論; Integral Representation Theory of Deep Neural Networks” https://t.co/QvFy0Uk84r
"深層ニューラルネットの積分表現理論"(PDF) https://t.co/72Luq79jzv / “Sho Sonoda // 園田 翔” https://t.co/mwq48Xv7E4
@knock_1 前に機械学習やりたいみたいなこと言ってたよね.全体じゃなくてNN特化だけどまとまった資料あったよ https://t.co/2UwZVnwaS8
「深層ニューラルネットの積分表現理論」早稲田の園田翔さんの博士論文なのだが頭の2章だけでも最近のディープラーニング動向が簡潔にまとまっててとてもよい。本論ちゃんと読みたい。 / “WEKO - 早稲田大学リポジトリ” https://t.co/Cc6p7XD9iK
最近NNの数学的定式化が一部で流行っているっぽいので昨日リプライで送られてきた論文紹介するけど。これ数学プロパーが深層学習を勉強するときに一番良いPDFではと思えるレベル。よくここまでサーベイできるなと。。。(200ページ以上あるので重い) https://t.co/N6FUq0aGMT https://t.co/z0s2whbj3n
https://t.co/GwvQyw5I3W
https://t.co/39INv0BZRS
@ranoiaru 関連すると思われる話をどこかで見た気がしたのでご参考までに。https://t.co/LkiEgt7gWJ
これが先日見かけた論文に繋がっていくのか。 https://t.co/atV6ngcsE7 https://t.co/IGU3Iuip0A
@SING_A_WELL "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/ljR84hFxuf これです
深層ニューラルネットの積分表現理論 https://t.co/9qof79jBah
"深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/yGKHMmovG2 使われている数学が大学で勉強しておいた数学とだいぶ被る。明日一日でワンチャン読んでみようかな。
「深層ニューラルネットの積分表現理論」大部(200ページ超)だったので打ちひしがれた https://t.co/qOfWKw9J9s
"深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https://t.co/n1wzmMMad6 https://t.co/t0sLtHjw5s
収集済み URL リスト
http://altmetrics.ceek.jp/article/hdl.handle.net/2065/00054630
(4)
http://b.hatena.ne.jp/entry/s/waseda.repo.nii.ac.jp/index.php?action=repository_action_common_download&item_id=38805&item_no=1&attribute_id=20&file_no=1&page_id=13&block_id=21
(1)
https://waseda.repo.nii.ac.jp/?action=pages_view_main&active_action=repository_view_main_item_detail&item_id=38805&item_no=1&page_id=13&block_id=21
(326)
https://waseda.repo.nii.ac.jp/?action=repository_action_common_download&item_id=38805&item_no=1&attribute_id=20&file_no=1
(22)
https://waseda.repo.nii.ac.jp/index.php?action=pages_view_main&active_action=repository_action_common_download&item_id=38805&item_no=1&attribute_id=20&file_no=1&page_id=13&block_id=21
(570)
https://waseda.repo.nii.ac.jp/index.php?action=repository_action_common_download&item_id=38805&item_no=1&attribute_id=20&file_no=1&page_id=13&block_id=21
(40)
https://waseda.repo.nii.ac.jp/index.php?action=repository_view_main_item_detail&item_id=38805&item_no=1&page_id=13&block_id=21
(2)
https://waseda.repo.nii.ac.jp/index.php?active_action=repository_view_main_item_detail&page_id=13&block_id=21&item_id=38805&item_no=1
(3)
https://waseda.repo.nii.ac.jp/index.php?page_id=13&block_id=21&item_id=38805&item_no=1&action=repository_view_main_item_detail
(4)