- 著者
-
吉野 元
- 出版者
- 一般社団法人 日本物理学会
- 雑誌
- 日本物理学会誌 (ISSN:00290181)
- 巻号頁・発行日
- vol.76, no.9, pp.589-594, 2021-09-05 (Released:2021-09-05)
- 参考文献数
- 18
深層ニューラルネットワーク(Deep Neural Network, DNN)を用いた機械学習は,深層学習とよばれ,画像認識,機械翻訳などで身近なものとなった.しかしその高い学習能力のメカニズムはよくわかっておらず,ブラックボックスとして使われている面が無視できない.最先端の応用では様々なノウハウが駆使されるが,単純化した状況設定から考える物理学の発想がこのブラックボックスにメスを入れるのに役立つであろう.ニューラルネットワークを用いた機械学習はスピングラスに端を発するランダム系の統計力学,情報統計力学において伝統的に重要なテーマである.Nビットの入力を,Nビットの出力に変換する「関数」を,DNNでデザインすることを考えてみよう.このNをDNNの「幅」とよぶことにする.入出力を含めて,ネットワークには多数のニューロンがある.あるニューロンの状態を変数Siで表そう.これが入力信号h=∑j Jij Sjの関数としてSi=f(h)で決まるとする.ここでSjは隣接する,上流側,すなわち入力層に近い方の層にあるニューロンの状態でJijはシナプス結合とよばれる.f(h)は活性化関数とよばれる.このDNN(このさき機械とよぶ)は多くの調節可能なシナプス結合Jijをもち,これを調節してデザインできる機械の全体集合をΩ0としよう.統計力学的には次のような問いが立つ.M個の異なる入出力データの組が訓練データ(境界条件)として与えられたとして,これに完全に適合する機械は,シナプス結合Jijを色々変えて,何通り作ることができるか? この「正解の集合」をΩとし,その統計力学を考えるのである.学習の問題で重要なのは,訓練データである.人工的だがシンプルなシナリオとして,(1)ランダムな入出力データ,(2)Ω0から無作為に選んだ一つの「教師機械」にランダムなデータを入力し,対応する出力を取り出し,この組を「生徒機械」の訓練データとする,というものがある.(1)はガラス・ジャミング系の統計力学に深く関係する.他方,(2)はいわば結晶(隠された「教師機械」)を推定する統計力学である.DNNの構成要素として最も単純なのは,符号を取り出す関数f(h)=sgn(h)を活性化関数とするもので,ニューロンの状態はイジング変数Si=±1になる.これはいわゆるパーセプトロンの一つである.単体の場合は(1)(2)のシナリオともに深く理解されている.しかしこれを多数組み合わせたDNNの理論解析は困難とされてきた.この困難は次のように克服できる.まず,全パーセプトロンの入出力関係が満足されることを拘束条件として導入することにより,シナプス結合JijのほかにニューロンSiも力学変数に加えることができる.これによって,入力と出力を多段階の非線形写像で結ぶ問題が,局所的な相互作用をもつ多体系の統計力学として捉え直される.得られた系には入出力層以外にランダムネスはない.ここで重要なヒントとなるのは,無限大次元の剛体球ガラスなど,近年急速に発展したガラス・ジャミング系の平均場理論である.そこではハミルトニアンにランダムネスがない系に対してもスピングラスなどランダム系で用いられたレプリカ法が強力なツールとなることが明らかになっている.レプリカ法で理論を構成して解析した結果,熱力学極限N(幅),M(データ数)→∞で,比α=M /Nの増大とともに(1)レプリカ対称性の破れを伴うガラス転移,(2)結晶化が,ネットワークの両端から逐次的に起こって解空間Ωが狭くなること,ネットワークが十分深ければ中央部に「遊び」(液体領域)が残されることがわかった.これはある種の濡れ転移とみなせる.現実的には幅Nは有限であり,転移はクロスオーバーとなり,系は深さ方向にダイナミックスが変化する複雑な液体となる.