自動運転が直面する倫理的な課題

自動運転のAIが判断する人間への差別① 人の命か経済合理性かの選択

例えば自動運転車に乗ってハンドルを握らずとも進む際、物陰から飛び出してきた歩行者が母と小さい子供の二人だった場合、ハンドルを切って壁にぶつかるか車が歩行者二人を引いてしまうかという二択となる。この場合、倫理的にはハンドルを切って壁にぶつかる選択肢を取るのが自動運転車の判断かもしれないが、このような判断をすることが仕様となっている車を買いたいとは思わない。つまり経済合理性を重視すると車の中の人を優先するのが正しいとなる。

②高齢者か子どもか

また他の例だと、右側に高齢者一人・左側を登校中の小学生複数人が歩いていた場合、この車は右側にちょっと寄りながら走行するというアルゴリズムを組むことが許されるのかどうかという判断も問題となりうる。

③事故が発生した際の責任は運転手か・メーカーか・アルゴリズム発案者か

そしてもし問題が起きた場合に責められるべきは運転手なのか、アルゴリズムを開発した人なのか、メーカーなのかも問題となる。自動運転の電気自動車メーカーであるテスラは、高速道路の際はハンドルを握っていないかをしつこく確認される。そしてテスラ車は乗車時に「我々の責任ではなくあなたのリスクを使っています了承しますか」というインタラクションがあり、同意して初めて運転が始まる仕組みとなっている。一方でドイツのフォルクスワーゲンとBMWはメーカーが責任を取るという形にしている。

この記事が気に入ったらサポートをしてみませんか?