黒猫 (@kuroneko3271003)

投稿一覧(最新100件)

RT @hshimodaira: 最初に情報幾何考えてた経緯とかわくわく感がスゴイ.大型予算とか「優秀な人材はどこにいても育つのである」あたりの話は今でも通用するね.個人研究万歳! 「情報幾何の生い立ち」甘利俊一 応用数理 (2001) https://t.co/8d0uXL…
RT @yu4u: ゎーぃ。 @owruby パイセンの学習率とかdata augmentationとかアンサンブルとかの網羅的な検証論文(https://t.co/O4YI0Xn7ga)はKaggler見るべきでは!?(せんでん https://t.co/HI7Hhdwur…
RT @shima__shima: AI学会誌に執筆しましたKDD2018の会議報告が公開されました: https://t.co/q1Ic8ALtoP 会員以外でも無料でご覧いただけます.

お気に入り一覧(最新100件)

これと鈴木先生の汎化解析の解説論文(https://t.co/dR4QpqB7hL)はいろんなところでおすすめしている https://t.co/c3YAp4ptjk
データセットと学習済みモデル間でのライセンスの関係性については以前JSAIで整理している発表を見た記憶があるけど、Pre-trained ModelとFine tuning Modelだとその辺どういう扱いなんだっけ 通例としてはライセンスの影響を受ける気がしないでもないけど https://t.co/ncU65uTBeP
異常検出において、「教師あり」vs「教師なし」で「教師なし」が勝った一例。 https://t.co/tFsw7ssmQh コンクリートの打音スペクトル(スペクトログラムではない)で異常個所を見つける研究。「教師あり」が80%強の精度、「教師なし」(オートエンコーダ)は100%の精度に。
AI学会誌に執筆しましたKDD2018の会議報告が公開されました: https://t.co/q1Ic8ALtoP 会員以外でも無料でご覧いただけます.
(このテーブルは勉強になる)無限個の中間層素子をもつニューラルネットは、二乗可積分関数の空間 L2 や、連続関数の空間 C にコンパクト開位相を入れた空間などで稠密=万能関数近似装置となることができる。 1. https://t.co/GovYP82BTT 2. https://t.co/hF2K3H0hdD https://t.co/jLq0TLX33l

48 0 0 0 OA 情報幾何学

インターネッツを漁っていて,多様体について自分の中で一番雰囲気つかめた資料はこれらでした. 情報幾何と機械学習 赤穂昭太郎: https://t.co/0BJvy006gu 情報幾何学 甘利俊一: https://t.co/Rg7Ydb5taI
共変量シフトがどういう状況を指すのかは、この論文 https://t.co/ThLHpno65B の3ページ目あたりとかこの論文 https://t.co/M0cz3yMUCl を読んで分かった(ような気がする?)

フォロー(1026ユーザ)の投稿一覧(直近7日間)

フォロワー(143ユーザ)の投稿一覧(直近7日間)