著者
山本 展彰 Yamamoto Nobuaki ヤマモト ノブアキ
出版者
大阪大学COデザインセンター
雑誌
Co*Design (ISSN:24349593)
巻号頁・発行日
no.10, pp.91-109, 2021-07-31

本稿は、AIをめぐる法的因果関係について、法哲学者H. L. A. ハートと民法学者T. オノレが『法における因果性』において展開した法的因果関係論を基に検討したものである。AIをめぐる法的因果関係は、近年注目を集めるAIをめぐる法的責任と密接な関わりがある。ここでは、AIの開発やAIの利用といった人間の行為とAIの判断・指示との関係性が問題となる。そこで本稿では、これらの関係性について、ハート=オノレが提示した人間の行為と他の人間の行為との関係性についての理論を応用し検討した。その結果、ハート=オノレの法的因果関係論が用いる判断基準の曖昧さ、AIと人間の判断のどちらが信頼に足るものかを決めることの困難さ、AI開発において満たすべき基準を定めることの困難さが、AIをめぐる法的因果関係の根幹にある問題であることが明らかになった。これらの諸問題の背景には、AIを対象とする場合に、法的因果関係の存否を判断する際の基準となる「通常」という規範的な概念の動揺がある。これは従来の法的因果関係論とAIが立脚する世界観の違いに起因するものであり、AIが立脚する世界観を共有する法的因果関係論の可能性を検討することが求められる。In this article, the author examined legal causation on Artificial Intelligence (AI) by applying the legal causation theory of H. L. A. Hart and T. Honoré in Causation in the Law, Second Edition. Legal causation on AI has a close connection with legal responsibility on AI, which attracts many researchers recently. In legal causation on AI, relations between developing AI or using AI and estimations or directions of AI become problems. Then the author examined these relations by applying the theory of Hart and Honoré about the relation between a human act and the other human act. As a result, the author found three problems: ambiguousness of criteria for judgment of Hart and Honoré's legal causation theory, difficulties of deciding which is reliable decision human or AI, and difficulties of setting up standards of developing AI. Behind these problems, there is an upset of normative concept "normal" using criteria when examining causation, especially on AI. This issue arises from the difference of visions of the world between existing legal causation theory and AI. Then legal causation theory, which shares AI's vision of the world, is needed to consider.