『AIの時代と法』【基礎教養部】

本記事は、J LAB基礎教養部の活動の一環で作成されたものであり、chiffon cake氏の記事を受けた返答的な意味もあります。

まずは僕の感想をば

衝撃映像とか見るの好きなんすよ

僕はAIについてなーんにも知らない。その原理も、種類も知らない。

なんか、囲碁か将棋かで、世界トップレベルの人を相手の勝ったとかいう話を聞いたことがある。この時初めてAIなるものを知った。

その後、AIをさまざまな方向から聞くことが増えた。

例えばAIスピーカー、自動運転、広告、ChatGPT…

どうやらAIはそれほど離れたところにおらず、どんどん生活に近くなっているらしい。

そういったAIの活用方法のなかでも、僕は特に自動運転の事故に興味がある。

特段自動車が好きというわけではないが、「交通事故の映像を観ては他人の不幸を嗤う事故発生の機序を学ぶ」というクソ無意味な趣味を持っており、自動運転による交通事故の映像もよく見てきたのだ。

交通事故動画のコメント欄でよく議論されるのが、過失割合である。こいつは動いていたがあいつは動いていなかったから10:0だとか、双方動いていたがあいつは余所見をしていたから8:2だとか。

要はどちらにより多くの責任があるのかが数値化されたものが過失割合だが、自動運転だとそれはどうなるのだろうか。誰に責任があるのか。誰が金を払ってくれるのか。

いや、そもそも自動運転が事故を起こしたらあかんのやないか。AIは何をしている。なぜ防げなかったのか。

AIがミスったら

本書では、第2章 2節「AIの間違いと暴走」で、AIがミスについて想定される問題について述べられている。

この節で問題点となっているのが、AIがミスったときの対応策である。

AIが起こしうるミスとしては、例えば自動運転の事故や、医療診断のミスなどが挙げられる。

AIのミス(の拡大)を防ぐ手段は、これまでにいろいろと考えられてきた。例えば、AIの判断を人間がチェックするとか、AIのミスをAIが発見する仕組みにして更にミスったらまた別のAIが発見する仕組みにして・・・(冗長性)とか。

しかしいずれの対策も、AIの爆速処理能力というメリットを消してしまったり、やはり万全を期すというわけでもなかったりするのが、問題点として挙げられている。

ほなどうすれば良いねんということを考えるのだが、たぶん永遠にどうにもならないと思う。

そもそもAIは学習したデータをもとに判断しているだけなのだから、それに「ミス」なんてものはないだろう。

「ミス」というのは「うわーこれはできたのになー」であり、AIが「いや、わかっててんけどやってもうてん」なんて意識があるわけでもない。

むしろミスを誘発するようなデータを学習させた(あるいは十分なデータを学習させなかった)人間のミスと言うべきではないか。

「テレビのリモコンどっかいった」って言うのと同じ話である。

人間がミスをする限り、AIが完全無欠になることは決してないだろう。リモコンのせいにするでない。人間のせいだ。

ただまあ、無限の時間をかけてあらゆる事象を学習させれば、AIがミスることはなくなるんじゃないだろうか。未発見の事象が確認されても、それを反面教師として学習させればOK。

でもこれ、アキレスと亀かも。

AIが事故ったら

ちなみに、AIがミスが実害に繋がってしまったときの責任問題も第3節「責任の所在──メーカー・売り手・プラットフォーム」にて述べられている。

現在の法の体系は、「物」の取引を前提としているため、「サービス」の取引には対応できないと述べられているが、この責任問題も現在の法が対応できない一例である。

責任問題が発生しうる状況は様々に思いつくが、例えば先にも挙げた自動運転による事故や、AIによる医療診断のミスなどがある。

万が一(といっても実際にあった事故だが)、自動運転の車両が人身事故を起こした場合は、いったい誰が責任を持つのか。

一般的に言うと、AIのミスを防ぐ、あるいはミスが発生しても被害拡大を食い止めるための対策を講じる責任が専門家にはあるのではないか(専門家とは誰のことか)?

AIを用いたサービスを利用するユーザーには責任はないのか。

これらの問題は、現在の製造物責任法では完全に対応できず、利用規約などといったサービスごとの個別の契約内容で補うしかないのだ。

いくつかの裁判で責任の所在を明らかにさせてきたようだが、サービスの種類が多様化するなか、一概に法で責任の所在を決めても、すぐに対応できない事象が発生するだろう。

ましてや日本じゃ法律の改正がササっとできないもんだから、余計にAIの時代に追いつかないどころか、離されてゆくだろう。


chiffon cake氏の記事を読んで

記事を読んで、というか、ミーティングで本書と記事についてchiffon cake氏、YY12氏と僕の3人で話したことについて、もう少し考えたい。

それはchiffon cake氏の記事にもある「性善説から性悪説へ移るのか」という話である。

回転寿司という仕組みを作った人は、回転している寿司や醤油をペロペロされることは想定していなかっただろう。

原子物理学を研究していた人たちは、原爆という最悪の兵器を作れてしまうことを想定していたのだろうか。純粋に自然科学と向き合っていただけの研究者もいただろう(実際に軍・政府と科学者が対立した例もある)。

今後もAIを用いる技術がどんどん発展していくだろうが、開発者は「事業者にもユーザーにも(もちろん同じ開発者、技術者にも)悪用されるかもしれない」と思いながら研究・開発しなければならないのだろうか。

その悪用を防ぐ方法として、コード(規格)で規制しておくというのがある。

既にChatGPTにはそういった類の制限がされているそうだが、悪意ある使い方をされることを想定して予め制限をつけるような研究・開発に発展性は見込めるのだろうか。

見込めねーよ、そんなん。って言いたいところだが、反論が思いつかない。

むしろ制限をかける努力をする方が、かけない場合よりも、より技術が発展したと言えるのではないか?

ドアを作るだけじゃなくて、勝手に開けられないように鍵も作ることで、ほら、鍵という新たな開発もできましたと。

でもなんか、きもちくないんだよなー。

「勝手に入られたくないから、勝手に入れないような仕組みを作っとかなきゃ」ではなく、「ドアできたよっしゃー!」できもちく終わりたい。

つまり、他人を善人だと信じて、というか信じるとか疑うとかじゃなくて、そんなことを考えないで、研究・開発された一級品を、人生を豊かにするために使用したいものだ。

この記事が気に入ったらサポートをしてみませんか?