(@umicho)

投稿一覧(最新100件)

RT @as_capabl: 「ミジンコは危険を感じると頭を尖らせるが、特に意味はない上に尖らせるのに一日かかる」ってツイットがあったけど、追跡調査の結果ミジンコ達のがんばりは無駄で無かった事が判明して救われた気分になりました https://t.co/KtSS5lT886
CiNii 論文 -  皇居におけるタヌキの食性とその季節変動 https://t.co/LU0TUHbba2
RT @wort: CiNii 論文 -  女子短大生の下着に関する調査 http://ci.nii.ac.jp/naid/110000989070

お気に入り一覧(最新100件)

「ミジンコは危険を感じると頭を尖らせるが、特に意味はない上に尖らせるのに一日かかる」ってツイットがあったけど、追跡調査の結果ミジンコ達のがんばりは無駄で無かった事が判明して救われた気分になりました https://t.co/KtSS5lT886

フォロー(1280ユーザ)の投稿一覧(直近7日間)

RT @works014: この文書そのものが読み難いという皮肉… / “2F3-1 高精細LCD上の明朝体フォントの読みやすさと好ましさ” https://t.co/4x7CfLztdY
RT @takanobu_mizuta: 5歳の娘は、寝るときに読んでもらう絵本をいつも自分で選んで持ってくるが、昨日今日と私の博士論文を持ってきた。さっぱりわからないハズだがちゃんと聞いている。今日はこの文献を引用して、金融とは何か、価格発見と流動性の重要性を書いた章。 ht…
日本においてロシア諜報機関に協力した 情報提供者の類型化/https://t.co/mXBo79980U HUMINTのはなし
RT @takanobu_mizuta: 5歳の娘は、寝るときに読んでもらう絵本をいつも自分で選んで持ってくるが、昨日今日と私の博士論文を持ってきた。さっぱりわからないハズだがちゃんと聞いている。今日はこの文献を引用して、金融とは何か、価格発見と流動性の重要性を書いた章。 ht…
RT @ota42y: 2008年の頃の研究 https://t.co/CHdqV2JP3Y #rubykaigi #RubyKaigiA
RT @takanobu_mizuta: 5歳の娘は、寝るときに読んでもらう絵本をいつも自分で選んで持ってくるが、昨日今日と私の博士論文を持ってきた。さっぱりわからないハズだがちゃんと聞いている。今日はこの文献を引用して、金融とは何か、価格発見と流動性の重要性を書いた章。 ht…
RT @takanobu_mizuta: 5歳の娘は、寝るときに読んでもらう絵本をいつも自分で選んで持ってくるが、昨日今日と私の博士論文を持ってきた。さっぱりわからないハズだがちゃんと聞いている。今日はこの文献を引用して、金融とは何か、価格発見と流動性の重要性を書いた章。 ht…
ウェブアーカイブを支える技術/前田 直俊,大山 聡 https://t.co/lLDSbs9nP5 ぴゃ
RT @clear_wt: 放射線測定から見た復興 小豆川 勝見 学術の動向 Vol. 22 (2017) No. 4 p. 4_40-4_43 https://t.co/ENVkjrSCgc
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…

フォロワー(1201ユーザ)の投稿一覧(直近7日間)

@mathcafe_japan 黒田の関数解析終わったらでいいですが… ・深層ニューラルネットの積分表現理論(https://t.co/60Y9tmP5QF) をやってみたい感はあります。
RT @takanobu_mizuta: 5歳の娘は、寝るときに読んでもらう絵本をいつも自分で選んで持ってくるが、昨日今日と私の博士論文を持ってきた。さっぱりわからないハズだがちゃんと聞いている。今日はこの文献を引用して、金融とは何か、価格発見と流動性の重要性を書いた章。 ht…
日本においてロシア諜報機関に協力した 情報提供者の類型化/https://t.co/mXBo79980U HUMINTのはなし
RT @ota42y: 2008年の頃の研究 https://t.co/CHdqV2JP3Y #rubykaigi #RubyKaigiA
RT @takanobu_mizuta: 5歳の娘は、寝るときに読んでもらう絵本をいつも自分で選んで持ってくるが、昨日今日と私の博士論文を持ってきた。さっぱりわからないハズだがちゃんと聞いている。今日はこの文献を引用して、金融とは何か、価格発見と流動性の重要性を書いた章。 ht…
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…
RT @__tai2__: 法令は形式言語で記述して欲しいみたいな放談をslackでしてたら、法令工学って名前で実際に研究されてると教えてもらった。ほほー。 https://t.co/y0Hdg5Fdnz https://t.co/BXQx89oTIU
ウェブアーカイブを支える技術/前田 直俊,大山 聡 https://t.co/lLDSbs9nP5 ぴゃ
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…
RT @ogawa_tter: "深層ニューラルネットの積分表現理論"、園田 翔、博士論文、2017年2月、早稲田大学 https://t.co/MCIyuOs36X 「深層ニューラルネットの中で何が起きているのか,なぜ深層にした方が良いのかという問題に対して」 https:/…