著者
大屋 雄裕
出版者
日本社会学理論学会
雑誌
現代社会学理論研究 (ISSN:18817467)
巻号頁・発行日
vol.12, pp.4-13, 2018 (Released:2020-03-09)

近代の法制度において前提されている自由と幸福の関係が現在さらされている緊張について、ローレンス・レッシグによるアーキテクチャの権力と、キャス・サンスティーンのリバタリアン・パターナリズムの差異を踏まえつつ検討し、特に後者が個人の自己決定に関する干渉を内包していること、それを正当化する要因として想定されているメタレベルでの自己決定が十分な根拠となっているかに疑義があること、サンスティーン自身が立脚しているとされる共和主義的自由の概念と抵触する可能性があることを指摘する。そのうえで、自然による制約を自由に対する脅威から除外する観点が、人工知能を通じた干渉が想定し得る現代において持ち得る問題性を指摘し、人格なき法制度を可能とする法制度の一例としてリバタリアンによる損害賠償一元化論を紹介する。
著者
大屋 雄裕
出版者
情報法制学会
雑誌
情報法制研究 (ISSN:24330264)
巻号頁・発行日
vol.6, pp.3-10, 2019 (Released:2019-11-20)
参考文献数
6

The current challenge for evidence-based policy making (EBPM) held in the Japanese government lacks clear definition and scope of application in itself. By reconsidering the practice of evidence-based medicine (EBM) as a source of EBPM, and comparing between the two ideas, the author indicates that EBPM shall not correspond to clinical practice on each individual patient, but to the research process in EBM, as to design and practice clinical trials, evaluate them to establish treatment guidelines which shall be respected prima facie in the medical practices. From this viewpoint, the author tried to lead some lesson against the Japanese EBPM practice on its limits and standards in evaluation, as to be unassertive in making policy to have wide and unpredictable influence over human rights, to incorporate cancellation conditions on policies to realize suppression effects, and to respect comparative legal studies.
著者
宇佐美 誠 大屋 雄裕 松尾 陽 成原 慧
出版者
京都大学
雑誌
挑戦的研究(萌芽)
巻号頁・発行日
2019-06-28

本研究計画は、人工知能(AI)が著しく発達した近未来の社会的経済的状況を見据えて、新たな分配的正義理論を提案するとともに、個人の自由への新たな形態の脅威に対して理論的応答を提示することを目的とする。この研究目的を効果的に達成するため、正義班と自由班を組織しつつ、相互に連携して研究を実施する。補助事業期間を基礎作業、構築・展開、総合・完成という3つの段階に分け、計画的に研究活動を推進する。
著者
大屋 雄裕
出版者
名古屋大学
雑誌
若手研究(B)
巻号頁・発行日
2007

情報化が国家の統治システムと個人の主体性に及ぼす影響について理論的検討を行なった。特に、監視システムの社会への浸透と相互結合が自己決定的な個人のあり方にどう影響するかを分析した。国家による監視の量を個人の自由と直結させる従来の一次元的モデルを批判し、国家・個人と中間団体の相克関係が監視社会論について持つ意義を明らかにするとともに、個人の自律性に対して重要な分析枠組としての事前規制/事後規制という区分を確立した。
著者
大屋 雄裕
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集 第34回全国大会(2020)
巻号頁・発行日
pp.3N1OS11a01, 2020 (Released:2020-06-19)

人工知能を含め、システムが利用者から信用され利活用される条件を分析するとともに、その一要素としての説明可能性についてその内容を明確にすることを目的とする。 そのため、状況と帰結の関係として因果連関(原因と結果)と意味連関(理由と説明)があり、責任実践において注目されアカウンタビリティ(説明責任・答責性)の基礎となるものは後者であることを明らかにする。また、法制史・比較法的知見をもとに、使用者と被用者の知識・能力水準の格差という観点からシステムの信用性を維持する手法を分類し、今後の制度化に向けた示唆を提示する。