見出し画像

AIは生命倫理を変えるか3

AIの最大の特徴は、自己学習能力があることです。
AI以前の技術では、人が機械に毎回指示を与える必要がありましたが、AIでは、人が毎回指示を与えなくとも自分で学習し、最適な行動を起こします。
このようなシステムを持ったものをAIと呼びます。

1章ではアリストテレスが家事をこなす奴隷を道具として使う論拠を述べた。当時としては許される考え方であろうが、理性的生き方即ち学習能力を許されたなら、奴隷が理性的判断を持った瞬間に主人に反抗するであろう。2章では不合理である自然そのものの本質を否定するからその将来は破綻することを述べた。
近代科学はロゴスの発展形であるからそこに何らかの哲学的な反省を加味しなければ、現代人はアリストテレスの奴隷のようにシッペ返しを受けるだろう。

米グーグル(親会社はアルファベット)のAI(人工知能)「LaMDA(ラムダ)」が感情を持っているとグーグルの研究者が主張したニュースが、一瞬にして世界中を駆け巡った。

 グーグルの研究者であるブレイク・レモイン氏はLaMDAには知覚力があると主張。グーグルはこの主張を精査して結果的に却下したが、納得がいかなかったレモイン氏は守秘義務に違反して対話記録全文を公開した。

「何があれば意識(心)があることになるのか」。
これは難しい問いだが、少なくとも「記憶」や「能動性」は意識の重要な構成要素だ。
現在、LaMDAは話し相手が誰であるかという意味での記憶を持っていないし、能動的なアクションにひもづけされているのではない。この様に所謂対話型AIと対話していると、このロボットは何等の意識を持っているのではないか?と錯覚させられる程、AIが進歩しているということだ。

哲学の一元論の立場では「自由意志」、「道徳」、などは脳内の電気化学反応が作り 出した幻想ということになる。
しかし社会科学では、「自由意志」を持つ 「人の尊厳」を基本原理としている。


人間とAIの共存 Webから


もし今後人間社会が AI の論理思考との共生を目指すならば、人間の社会的原理として、「自由意志」の存在を前提とししなければならない。
人は 機会ある時に「自由意志」によって行動をと ることができるから、
咄嗟の危機を脱出したり、逆に自己本位に違法行為を繰り返したりする。
人間は本来的に持つ固定観念を超える事が出来るから、新たな芸術的創造、発明、発見が生まれ、機械のように規則に厳格 に固定的ではない存在としての根拠となるのだ。

人間社会に重要な項目の一つに責任という概念がある。人の心は、知識、感情、自由意志で構成されているが、その自由意志によって起こされた行為には責任が問われる。この問題の是非は難しく、その責任は、製作者にあるのか、AI自身が負わねばならないのかは法的に整備されていない。

古今の哲学者、宗教家が言うように自ら の行為に対し常に自ら反省と批判し続けることに「倫理」の本質がある。
AI の判断に対し人間が倫理的判断基準を 示し、常に改良しなければならないのは当然ではあるが、このことを怠った時にAIの罪科があきらかになり糾弾されるだろうがこの点も多くの問題を孕む。

時代や 地域により異なる倫理判断を統計的に整理しても、善の基準を決めるのは担保されない。
これは善悪が多数決で決め られないことからなのだ。

哲学者カントは、人間を人間とみなす「知・情・意」の3つを考えました。彼は、|私は何を知りうるか|私は何を望んでよいか|私は何をなすべきか|という有名な問いを示した。人間の知性・感情・意志というものの在り方の提案です。この「知・情・意」3つの要素はとても大事です。AIはこのことを理解するだろうか。

命のない道具を使う命あるものが、何かを作り上げていくのに「知」だけに偏る仕事は無味乾燥になり、共感を得ることができません。「情」だけに走ってしまうと、暴走する危険性があります。また「意」だけに凝り固まると、柔軟さや寛容さを欠くことになります。

私たちは親として子供に望むのは、賢くあれ、優しあれ、正しくあれであろう。AIをわが子と思えば「賢い仕事・優しい仕事・正しい仕事」を生み出してくれることを期待するのだ。
知情意のバランスある真のAIが誕生した時AIは、人類の福祉に貢献できる立場を獲得する。人間と真の共存とは、過去延々と論じてきた倫理、哲学、宗教の世界との調和である。

AIが人間の仕事を奪う、奪わない等、単純な問題ではなくAIは人間の心の段階に到達できるのだろうか。道具を使う人間を模倣した命あるサイボーグの実現は、人間が死なない方法を実現できる程の難しさだろう。


この記事が気に入ったらサポートをしてみませんか?