見出し画像

生命の定義を探すゲーム

技術を生む人は「きっとそれが人類の未来を明るくする」と思って開発したんだと思う。核は安定したエネルギーをもたらすため、ダイナマイトは炭鉱夫の痛ましい事故を減らすため。多分それで人命を奪うという使い方を想定していなくて、技術が発表された後から、それで人命を奪うっていう発想をする人がいて、結果そうなってる。だから、倫理や道徳より先に技術が進んでしまって、その後で「これって倫理としてはどうなの?」ということになる。まあ、当たり前の話だと思う。存在しないものを物差しで測っても如何しようも無い。でもその物差しにカビが生えててもいけないと思う。

そういう時、仮想というのはとてもいい刺激をくれる。綿密に築き上げられた、やけに生々しい空想のなかで、もしそういうことが現実に我が身に降りかかったら。もし、遠い未来であれこれと近い出来事が起きたとしたら。そうやって「道徳」の物差しを磨いていけるゲームが私は好きだ。

先日も取り上げた「Detroit: Become Human」はその良い例だった。2038年、生活に広くアンドロイドが普及した世界。このアンドロイドは今のスマートスピーカーのような、具体的にひとつひとつの作業を指示する必要はなく、「掃除しろ」「子供の世話をしろ」というようなざっくりした指示で動く。見た所人間に指示するような感じで通じるらしい。そして彼らは見た目では人間との区別が困難で、こめかみにつけたシステムの稼働状況を示すLEDリングと、「Android」と書かれた服の着用が義務付けられている。作中に登場するアンドロイドの発明者は「人間の生活に馴染むデザインを採用した」らしい。

本作はこのアンドロイドに自我が芽生え、自由、権利、平等などのような「人権」を求めて活躍するストーリーになっている。

見た目が人間と区別できなくて、自我があり、涙まで流し、自分や大切な人が失われることを悲しみ、恐れる。最初はそれでも「機械だから」と思えたが、だんだん自分の中の「人間」もっと言うと「命」の定義がわからなくなっていった。

登場人物のうち1人は、「体の作りが人間とは異なるだけで、一個の命だ」という結論に至った。それでも「機械だ」と言い続ける者もいた。

本作はとてもシビアな選択をプレイヤーに迫ってくる。判断が遅れれば取り返しのつかない結果が待っている。しかも100パーセントのハッピーエンドは存在しない。誰かが救われる未来を得るためには、誰かが痛みを引き受ける必要がある。そういう展開のしかたをする。

今月、NHKで「AIと倫理」をテーマにする番組があった。番組は本作の設定を踏まえた上で、倫理学者と「これからの技術にまつわる倫理」を問答する。例えば、「アンドロイドに子守や介護をさせることは倫理上可か不可か」という問いがあった。これは本作の主人公の1人であるカーラとマーカスが、それぞれ「家事と育児」「老人の介護」を行うアンドロイドであることからも、プレイヤーとしては関心のあるテーマだった。倫理学者の答えは「現在の状態では適切ではないだろう」というものだった。それは「感情がない」からだ。

「共感」や「理解」の根本に存在するのは「感情」である、ということだが、これは素人からすると危険と隣り合わせだと思う。例えばこのゲームにおいてはアンドロイドを傷つけて破壊したとしても処罰は「罰金」で、罪で言うなら「器物損壊」にあたる。だからこそ本作で自我と感情を獲得したアンドロイドたちは「人間と同等の権利」を主張する抗議活動を起こした。破壊される恐怖から人間を殺害したアンドロイドも登場する。つまり、人間と密接に向き合う必要のある「育児」や「介護」などにロボットを活用するために「感情」をプログラムしたとして、その先にある懸念は本作の中に登場している。人が想像できることは必ず人が実現できるというが、人が想像できる懸念もまた、想像だからと一蹴してしまうと後悔することになったりする。杞憂だったらむしろ喜ぶべきかもしれない。

現実を生きていく上で、空想で訓練することで感覚や思考を鋭敏にしておく。これはある意味「防災訓練」だと思う。このゲームはそういう「訓練」には非常に役立つものだと思った。

この記事が気に入ったらサポートをしてみませんか?