著者
石川 真澄 横田 一
出版者
金曜日
雑誌
金曜日
巻号頁・発行日
vol.4, no.41, pp.10-15, 1996-11-01
著者
山口 二郎 酒井 哲哉 村上 信一郎 新川 敏光 中北 浩爾 米原 謙 石川 真澄
出版者
北海道大学
雑誌
基盤研究(B)
巻号頁・発行日
1999

1990年代後半には、英、独、仏の三カ国で社会民主主義政党の再生が起こり、イタリアでは政党再編成の中で中道左派連合が政権を獲得した。日本でも同じように政治改革を契機とする政党再編成の動きがあったにもかかわらず、社会民主主義政党の衰弱、事実上の退場という対照的な現象が起こった。その原因は次の諸点に求められる。第1に、日本社会党が1950年代後半に政権政党としての政策構想を放棄して以来、野党化の論理の中に埋没した。護憲平和主義が野党としての存在を正当化する最大の根拠となった。第2に、自民党政権時代に整備された地方重視の公共投資や弱小産業保護のための規制政策が、社会的平準化とセーフティネットの役割を代替し、本来の社会民主主義の出番がなくなった。この点はイタリアとよく似た状況であったが、イタリアの場合左翼政党の連合がEU加盟という国家目標に沿って自由主義的な改革を取り入れ、政権担当能力を示したのに対して、日本の場合社会党が規制緩和や官僚制改革について政策を示せなかったことで、90年代の政治において周辺的な地位に追いやられた。第3に、労働組合という旧来の支持基盤の衰弱、市民の台頭という有権者意識の変化に対応できなかった。これらの要因によって1990年代の日本で社会民主主義政党が衰滅していったが、新自由主義的な構造改革によって旧来の擬似セーフティネットが壊されたのちには、再び新たな社会民主主義的政策を軸にした政治勢力の結集が可能となる可能性もある。
著者
石川 真澄
出版者
社団法人人工知能学会
雑誌
人工知能学会誌 (ISSN:09128085)
巻号頁・発行日
vol.5, no.5, pp.595-603, 1990-09-01
被引用文献数
104

Learning in connectionist models has two aspects : the first aspect being the reproduction of the mapping from input to output patterns, and the second being the discovery of regularity in these training patterns. The backpropagation learning algorithm stresses the former aspect, as can be seen from its criterion function of the sum of squared output errors. The present paper, on the other hand, lays emphasis on the latter aspect. In the backpropagation learning of feedforward type models it is of nesessity to determine, beforehand, the number of layers and the number of hidden units in each layer. Since this prior determination is, in general, difficult, a trial and error procedure is inevitable, which is quite time consuming. To overcome this difficulty and to generate a small sized network, the present paper proposes a learning algorithm with forgetting of link weights. This forgetting is realized by adding the sum of absolute values of link weights to the criterion in the backpropagation algorithm. This algorithm generates a skeletal structure, in which the numbers of links and units used are kept as small as possible. As by-products of this algorithm it has various advantages : ease of interpretation of hidden units and improved generalization power of the resulting models. This algorithm alone causes the following two difficulties : emergence of distributed representation on hidden layers, which makes the interpretation of hidden units difficult, and a poor criterion value after learning due to the added term in the criterion function. To resolve these difficulties a structural learning algorithm is proposed, which consists of a series of algorithms : the learning algorithm with forgetting, a hidden units clarification algorithm, and a learning algorithm with selective forgetting. This structural learning algorithm is applied to a problem of discovering a logical function from a given set of pairs of input and output logical values. It is well demonstrated that the resulting skeletal network represents logical structure of the given problem. On the contrary the backpropagation algorithm generates a network far from being skeletal, making the interpretation of hidden units quite difficult. This algorithm is applied to another problem of classifying iris data by Fischer.Generalization power of the structural learning algorithm and that of the backpropagation algorithm are compared. The result of the comparison clearly demonstrates that the former has greater generalization power than the latter.