著者
池田 光穂 井上 大介 Ikeda Mitsuho Inoue Daisuke イケダ ミツホ イノウエ ダイスケ
出版者
大阪大学COデザインセンター
雑誌
Co*Design (ISSN:24349593)
巻号頁・発行日
no.9, pp.31-45, 2021-01-31

本稿は、サイバースペース(=インターネット空間)におけるサイバーパンクという概念を扱い、その倫理的あるいは非倫理的特質について人類学的に分析するものである。その際、社会に対するサイバーパンクの抵抗者としての特徴を確認するとともに、それがアイデンティティとよばれる社会的拘束に根差した概念ではなくエージェンシーという言葉で表現されうる、より行為実践に依拠した概念と関連する性質のものであることが論じられる。
著者
大森 いさみ 中橋 真穂
出版者
大阪大学COデザインセンター
雑誌
Co*Design (ISSN:24349593)
巻号頁・発行日
no.8, pp.33-47, 2020-08-31

多様化かつ複雑化する地域の課題に取り組むために、複数の大学が連携する事例が増えてきている。本稿は、武庫川女子大学と大阪大学大学院工学研究科の2大学の学生たちが協働した地域連携型プロジェクト・ベースド・ラーニング(以降、PBLと略称)のレポートである。実践の経緯をたどりながら、その内容と課題を整理したうえで、異なる大学で異なる専攻分野を学修してきた学生たちが、地域連携型PBLで協働することの教育的効果について明らかにすることを目的とする。本プロジェクトは、河内長野市と提携した産官学連携PBLでもある。学生たちは、河内長野市商工会などが主催する「奥河内フルーツラリー」に関するソーシャルネットワーキングサービス(以降、SNSと略記)を活用した広報活動と、河内長野市の農林業施設の観光資源としての可能性を検討するためのモニターツアーの企画運営を行った。本プロジェクトの成果と考察は「地方創生・政策アイデアコンテスト2018」(内閣府主催)大学生以上一般の部において、地方予選を通過し、全国審査に進む(応募総数604件のうち地方予選通過件数は21件)という評価を受けた。
著者
池田 光穂 Ikeda Mitsuho イケダ ミツホ
出版者
大阪大学COデザインセンター
雑誌
Co*Design (ISSN:24349593)
巻号頁・発行日
no.8, pp.1-17, 2020-08-31

軍事的インテリジェンスという用語は第二次大戦後に広く世界に膾炙するが、その起源はそれ以前の連合国ならびに枢軸国と呼ばれる国々ですでに1920年代末から始まっていた。本稿は、軍事的インテリジェンスと当時それらの地域で研究が本格化する民族学(文化人類学)との倫理的な関係について論じる。それらの関係は「協働」という言葉で表現することができ、(i)積極的協力、(ii)相反あるいは矛盾する協力、(iii)価値中立的関与、という3つの関係に整理できる。これらの関係性の検討のため、将来における具体的な研究課題として「ペーパークリップ作戦」(米軍によるナチ科学者のリクルートと戦争犯罪免責)と「オデッサ」(正体不明の戦犯ナチ移送支援組織)を紹介、分析する。戦争の苛烈な現実に我々が直面した際に「科学がもつ冷徹さ」と「道徳的かき乱し」との間の認識論的混乱を避けるために、この研究分野の倫理的-法的-社会的連累(ELSI)の検討が急務であることを指摘した。
著者
山本 展彰 Yamamoto Nobuaki ヤマモト ノブアキ
出版者
大阪大学COデザインセンター
雑誌
Co*Design (ISSN:24349593)
巻号頁・発行日
no.10, pp.91-109, 2021-07-31

本稿は、AIをめぐる法的因果関係について、法哲学者H. L. A. ハートと民法学者T. オノレが『法における因果性』において展開した法的因果関係論を基に検討したものである。AIをめぐる法的因果関係は、近年注目を集めるAIをめぐる法的責任と密接な関わりがある。ここでは、AIの開発やAIの利用といった人間の行為とAIの判断・指示との関係性が問題となる。そこで本稿では、これらの関係性について、ハート=オノレが提示した人間の行為と他の人間の行為との関係性についての理論を応用し検討した。その結果、ハート=オノレの法的因果関係論が用いる判断基準の曖昧さ、AIと人間の判断のどちらが信頼に足るものかを決めることの困難さ、AI開発において満たすべき基準を定めることの困難さが、AIをめぐる法的因果関係の根幹にある問題であることが明らかになった。これらの諸問題の背景には、AIを対象とする場合に、法的因果関係の存否を判断する際の基準となる「通常」という規範的な概念の動揺がある。これは従来の法的因果関係論とAIが立脚する世界観の違いに起因するものであり、AIが立脚する世界観を共有する法的因果関係論の可能性を検討することが求められる。In this article, the author examined legal causation on Artificial Intelligence (AI) by applying the legal causation theory of H. L. A. Hart and T. Honoré in Causation in the Law, Second Edition. Legal causation on AI has a close connection with legal responsibility on AI, which attracts many researchers recently. In legal causation on AI, relations between developing AI or using AI and estimations or directions of AI become problems. Then the author examined these relations by applying the theory of Hart and Honoré about the relation between a human act and the other human act. As a result, the author found three problems: ambiguousness of criteria for judgment of Hart and Honoré's legal causation theory, difficulties of deciding which is reliable decision human or AI, and difficulties of setting up standards of developing AI. Behind these problems, there is an upset of normative concept "normal" using criteria when examining causation, especially on AI. This issue arises from the difference of visions of the world between existing legal causation theory and AI. Then legal causation theory, which shares AI's vision of the world, is needed to consider.
著者
常盤 成紀 Tokiwa Masanori トキワ マサノリ
出版者
大阪大学COデザインセンター
雑誌
Co* design (ISSN:24349348)
巻号頁・発行日
vol.3, pp.71-78, 2018-03

本稿は、近年みられる、政治の現場における人工知能への期待の高まりがいかなる意味をもつのかについて、ハンナ・アーレントの『人間の条件』を手掛かりとして、政治哲学的に考察したものである。人工知能に政治をゆだねることにより、人々は公正で合理的な判断(基準)を手に入れることが期待できる。しかし政治的判断とはアウトプットに過ぎず、社会は本来、そのアウトプットが出るまでに練り上げられた、あらゆる価値観が織りなす交渉のプロセスによって作られる。そのプロセスをカットしてただ帰結を機械に求めることは、アーレント的な「活動」を無意味化するものである。その結果、人間のアイデンティティは無効化されながら、人工知能は、圧倒的情報量に基づいて、ただ私たちに判断(基準)を提供する。拒絶しようのない人工知能社会の到来の中で、私たちが人工知能に対して、必要に応じて「それは違う!」と抗うためには、議会、あるいは公的空間は、正義や平等についてもっぱら議論する空間として機能するように、制度設計する必要がある。そのために参考になるのが、不確かな人間社会を機能させるための「約束」と「許し」という、アーレントのアイデアである。