著者
伊東 英彦 増田 一 大堀 隆文 渡辺 一央
出版者
一般社団法人 映像情報メディア学会
雑誌
テレビジョン学会技術報告 (ISSN:03864227)
巻号頁・発行日
vol.16, no.11, pp.37-42, 1992

This paper clarifies that a Multi-Tandem Perceptron (MTP) outputs the dominant K-L transform components of each sample of arbitrary input samples set. A R-stages MTP consists of R Unit-Perceptrons (UPs). Each UP is a 3-layerred linear perceptron with a hidden unit for identity mapping and transmits the mapping error vector to the following one. The hidden unit of the r-th UP outputs the r-th dominant component. This paper also discribes a rapidly learning method. The simulation results indicate that the method performs more than 100 times as rapidly as the conventional back propagation.
著者
増田 一 大堀 隆文 渡辺 一央
出版者
一般社団法人電子情報通信学会
雑誌
電子情報通信学会論文誌. D-II, 情報・システム, II-情報処理 (ISSN:09151923)
巻号頁・発行日
vol.77, no.2, pp.397-404, 1994-02-25
被引用文献数
5

KL(Karhunen-Loeve)変換を可能とする3層構造ニューラルネットを提案した.このニューラルネットは次の構造的特徴を有する.(1)入力層N(=入力次元数)個,中間層R(≦N)個,出力層N行×R列個の線形ユニットをもつ.(2)出力層第r(=1,2,…,R)列ユニット群は,中間層第rユニットと係数ベクトルW_r={W_<nr>;n=1,2,…,N}を介して結合し,かつ出力層内で同行前列ユニットから係数1の加算的結合を受ける.(3)中間層第rユニットは,入力層全ユニットと従属的係数W_r/∥W_r∥^2(∥・∥はノルム)を介して結合する.この並列出力形ニューラルネットの入力層-出力層各列間で恒等写像学習を行わせると,大局最適解に心ず収束し,収束後中間層第rユニットから入力標本の第r次KL変換成分が直接得られることを理論的に示した.また,高速な収束が期待できる簡単な学習則を示した.更に,(1)入力標本群の共分散行列Cが正則,(2)Cが非正則,(3)Cが多重の固有値をもつ,三つの場合についてシミュレーションを行い,理論の妥当性と学習の高速性を検証・確認した.
著者
松田 北斗 小松 隆行 大堀 隆文
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.89, pp.33-36, 2008-09-15

本研究では,楽曲の伴奏形態の一つであるアルペジオ (分散和音 )伴奏のフレーズを対話型進化論的計算手法 (IEC)によって生成する.既存の楽曲と生成されたフレーズを合わせて聞き被験者が適応度評価を行い,それを元に選択を行い交叉させ次の世代のフレーズを生成する.今回の実験では 7 人の被験者に協力してもらい初期個体数 5 個,第 5 世代までの実験を行った.その結果世代を重ねる事で適応度の高い個体が増え,本手法が有効である事が確認出来た.In this paper, we generate arpeggio phrases, which are one of accompaniments of music, by the Interactive Evolutional Computation (IEC) method. In this method, participants estimate a fitness of generated phrases by listening to both existent music and the phrase. Then, this method selects some phrases based on this fitness, and generates phrases of next generation by one-point crossover. Experiments results by 7 participants show that this method can generate better phrases than the initial one.