著者
伊東 英彦 増田 一 大堀 隆文 渡辺 一央
出版者
一般社団法人 映像情報メディア学会
雑誌
テレビジョン学会技術報告 (ISSN:03864227)
巻号頁・発行日
vol.16, no.11, pp.37-42, 1992

This paper clarifies that a Multi-Tandem Perceptron (MTP) outputs the dominant K-L transform components of each sample of arbitrary input samples set. A R-stages MTP consists of R Unit-Perceptrons (UPs). Each UP is a 3-layerred linear perceptron with a hidden unit for identity mapping and transmits the mapping error vector to the following one. The hidden unit of the r-th UP outputs the r-th dominant component. This paper also discribes a rapidly learning method. The simulation results indicate that the method performs more than 100 times as rapidly as the conventional back propagation.
著者
増田 一 大堀 隆文 渡辺 一央
出版者
一般社団法人電子情報通信学会
雑誌
電子情報通信学会論文誌. D-II, 情報・システム, II-情報処理 (ISSN:09151923)
巻号頁・発行日
vol.77, no.2, pp.397-404, 1994-02-25
被引用文献数
5

KL(Karhunen-Loeve)変換を可能とする3層構造ニューラルネットを提案した.このニューラルネットは次の構造的特徴を有する.(1)入力層N(=入力次元数)個,中間層R(≦N)個,出力層N行×R列個の線形ユニットをもつ.(2)出力層第r(=1,2,…,R)列ユニット群は,中間層第rユニットと係数ベクトルW_r={W_<nr>;n=1,2,…,N}を介して結合し,かつ出力層内で同行前列ユニットから係数1の加算的結合を受ける.(3)中間層第rユニットは,入力層全ユニットと従属的係数W_r/∥W_r∥^2(∥・∥はノルム)を介して結合する.この並列出力形ニューラルネットの入力層-出力層各列間で恒等写像学習を行わせると,大局最適解に心ず収束し,収束後中間層第rユニットから入力標本の第r次KL変換成分が直接得られることを理論的に示した.また,高速な収束が期待できる簡単な学習則を示した.更に,(1)入力標本群の共分散行列Cが正則,(2)Cが非正則,(3)Cが多重の固有値をもつ,三つの場合についてシミュレーションを行い,理論の妥当性と学習の高速性を検証・確認した.