AIの予測可能性

今日の情報ネットワーク法学会の第12分科会 【AI・ロボットと情報処理技術と法学】の質疑のところで言いたかったことはこういうことです。

AI機能を搭載したロボットや自動走行自動車等は、どのような情報がセンサー等を通じて入力された場合にどのような動作を選択するのかという内的なルールについては、「学習機能」を通じて、当初の開発者のコントロールを超えて形成していくことになってきている。しかし、どのような動作を選択ができるのかという選択肢は、人間がコントロールしており、予想の範囲を超えることはない。自動運転自動車であれば、人間が自動車を運転する際に与えられている選択肢(例えば、ブレーキをいつどの強さで作動させる等)と同じ選択しか与えられていない。したがって、これにより生ずる結果は、人間にその機器を操作した場合に生じうる結果を超えることはなく、その意味で予測可能な範囲を出ることはないということができる。
 AIを搭載した機器が法的な問題を引き起こすのは、AIが選択した動作の結果第三者(ないし国家または社会の)法益を侵害した場合ということになるけれども、その機器が当該動作をした場合にその種の法益侵害を生じさせうるということは、その機器の物理的な性能・形状等から予測可能だし、そのような性能等を物理的に持たせないという方法でそのような法益侵害を生じさせないことが可能である。
 したがって、その動作の選択次第では第三者等の法益を侵害しうる機器について、どのような場合にどのような選択をするのかのルールを自律的に構築していくAIが人間に代わってその選択をする機能を搭載した結果、通常人が操作をしていたならばしなかったであろう選択をAIがし、法益侵害を生じさせたという時に、そのような機器を市場に出荷したメーカーに法的責任を負わせるという解釈もありうるだろうし、そのような機能を有する機器を使用したユーザーに法的責任を負わせるという選択もありうるだろう。
 もちろん、日本の通説は、結果の予見可能性+回避義務違反をもって過失ありとする以上、AIによる動作選択のルールの構築を推し進めた方が、人間が設定した動作ルールをそのまま踏襲するよりも法益侵害の発生確率を引き下げるという場合に、AIによる動作選択のルールの構築機能の搭載を回避し、ひいては通常人が操作をしていたならばしなかったであろう選択をAIがすることで生ずる法益侵害について回避義務違反がないとする解釈もあり得るだろう。それは、個別の事件ごとの裁判官の判断におおむね委ねることができるし、この点について好ましくない判断が続いた場合に制定法による修正を行うこともできる。
 そういう意味で、どのような場合にどのような動作を選択するというルールをAIが自律的に修正し、メーカーもユーザーも現在AIが採用しているルールを認知していないという状況が生じたとして、紛争の法的解決に困難が生ずることはないのではなかろうか。

この記事が気に入ったらサポートをしてみませんか?