- 著者
-
瀧 雅人
田中 章詞
- 出版者
- 一般社団法人 日本物理学会
- 雑誌
- 日本物理学会誌 (ISSN:00290181)
- 巻号頁・発行日
- vol.74, no.11, pp.759-764, 2019-11-05 (Released:2020-05-15)
- 参考文献数
- 10
このところ深層学習(ディープラーニング)という言葉を頻繁に耳にするようになってきました.巷では技術的特異点などのパワーワードに引っ張られ,人工知能が人間の仕事を奪うかもしれない等と報道されるケースも少なくないため,怪しい分野だと思われている方もいるかもしれませんが,そうではありません.機械学習の理論的下地は確率・統計学にあり,むしろ物理学を修めた方なら誰でも腑に落ちるような枠組みに支えられています.深層学習は,数多ある機械学習の手法群の中の一つの手法です.その一方,親玉である機械学習という分野は,データをもとにそこからパターン・知識を抽出する手法一般の研究開発を指します.物理学者が普段行っているデータ解析のうち,ある程度の割合は機械学習だといっても過言ではないでしょう.深層学習は,ニューラルネットワーク(ニューラルネット)と呼ばれる特殊な数理モデルを用いる点で,他の機械学習の手法と大きく異なります.ニューラルネットは20世紀の中頃,動物の脳の数理モデルとして提唱されましたが,その後はデータの学習のための機械学習モデルとして広く研究されるようになりました.長い研究の歴史を持つニューラルネットですが,2006年頃になり新しい段階に突入し,やがて加速的な発展期を迎えます.ネットワーク構造を深層化することでニューラルネットが極めて高い学習能力を発揮することが実証され,広範なタスクに対応できるネットワーク構造が次々と開発され始めたのです.この一連の流れで発見されたアルゴリズム・技術・ノウハウの総体が深層学習だ,といって良いでしょう.深層学習は画像認識にとどまらず,Google翻訳のような自然言語処理,音声の変換・生成,フェイク動画の生成,アルファ碁に代表されるゲームAIなど,急激にその応用範囲を拡大し,産業・科学技術の風景を変えつつあるのは皆さんもご存知の通りです.では,この間の研究によって全ては理解され尽くされ,応用も試み尽くされたのでしょうか? 実態はそうではなく,むしろその逆です.ニューラルネットが高い性能を実現する理論的なメカニズムは未だほとんど理解されておらず,そのためアドホックなネットワーク構造の設計も当然第一原理に基づくものではありません.そしてゲームAIのような探索的作業への大きな可能性があるにもかかわらず,深層学習の基礎科学への導入は,まだ部分的かつ初歩的な段階にあります.深層学習の高い表現能力や汎化性能の理論的理解や,データサイズに比べてデータ次元が極めて高いような場合に対応できる学習アルゴリズムの発見など,今後物理学者も寄与できる未解決問題も数多くあると考えられます.またこれまでの産業・ソーシャルデジタルデータだけではなく,科学データへの応用を通じて露わになる深層学習の技術的問題点や改良の可能性も数多くあるでしょう.これからは,基礎科学研究によって深層学習の新しい可能性が開けていくものと期待しています.