見出し画像

反メディア責任論

 どうも、虚無の先と名乗らせていただいている者です。

 表現の自由と誹謗中傷対策という突き詰めた場合に矛盾している(他人に対する誹謗中傷表現をすることもそれが表現である以上、表現の自由として認めなければならず、サービス側がユーザーからのオプトインなしに設定するフィルターのような誹謗中傷対策は表現の自由と衝突するため)二つの理想の共存のために基本となる考え方を提示していきたいと考えます。

「責任」について

 今回「責任」というものを「何かが悪くなった場合、その罰を受け入れる義務」とします。そして、その義務を受け入れるには自身が最終的な決定を下していないと納得できるものではありません。

 どうして自動運転車が人を轢いてしまった場合の責任追及が難しいのでしょうか?基本的にこれまで責任は、その行動をとった人間に取らせていました。ただし、その人間が幼いなどで十分に責任が取れる状態ではないとされた場合はその保護者が責任を負います。

自動運転車(Stable Diffusionによるイメージ)
あまりにも狂気が垣間見えたから使ってみた

 これは思考をする主体が人間であることが暗黙の前提でした。では、人間ではない「もの」をその責任を取る対象を選ぶシステムに入れたらどうなるのでしょうか?その「もの」には責任を取るために奪うことになる人権が存在しません。簡単に言うと「もの」は責任を取れないということになります。

 運転席にいた人に責任を追及するには運転していなかった(=判断はしていなかった)わけなのでその責任は受け入れがたいものです。その自動運転車のメーカーに責任を問うても、そもそも自動運転車にすべての判断を指示/入力できないから機械学習を使ってある意味入力のズルをしたわけです。

 その機械学習によって生まれた人工知能がある意味ブラックボックスである以上、ある程度の安全性の検証はできたとしても、それがすべての状況で安全であると判定するには、すべての状況で検証する必要があります。すなわち、すべての判断を指示できないから判断を自動化するために機械学習を使ったのにその機械学習の安全性を検証するためにすべての状況に入れなければならず、実質的にすべての判断を指示しなければならないという矛盾に陥ってしまいます。ゆえに自動運転車に搭載された人工知能のすべてをメーカーであっても知ることはできないわけです。

 責任を取るには自身が思考の最終判断者であることが最も受け入れやすい形なのに人工知能に現場での判断をさせてしまうとメーカーもその責任を(損害があることもそうですが)あまり受け入れたくないでしょう。また、その機械学習のためのソフトウェアが複数のメーカーで共同開発されていた場合(そのための大量のデータを集める都合上十分あり得る話です)、責任はかなり問いづらいものになります。おそらくはメーカーが負うものになるとは思いますが。

 では、ここまでかなり長い前提を語ってきたので本題に少し近づこうと思います。一つ質問です。

もし、自動運転車で交通事故が起きた際、
その原因が一つの間違ったデータに基づく機械学習だと特定された場合、
その間違ったデータを提供した一人にその事故の責任を問えますか?

 そもそも責任を問うために必要なデータである「誰がデータ提供したか」が追跡できない状態でデータは提供されているので構造的に問えないこともそうです。が、十分に正しいデータが多ければ仮に間違ったデータが入り込んだとしてもその間違ったデータははじき出されます。人工知能とその機械学習のシステムを作ったメーカーの責任になります。最低限、間違っても間違ったデータを提供した人にはならないという点だけは認識してください。

 ここでやっと本題です。先ほどまでの文章の「自動運転車」をある人に置き換えて、「交通事故」を重大犯罪(おそらく性犯罪が一番メディアと犯罪の議論を踏まえるとふさわしいでしょう)に置き換えます。そして、「間違ったデータ」を「ありとあらゆる表現物の内の一つ」に置き換えます。すると、

もし、ある人が重大な犯罪を犯した際、
その原因がありとあらゆる表現のうちの一つの影響だと特定された場合、
その表現を発表した人にその犯罪の責任を問えますか?

 となります。これは人工知能に対する責任の議論をそっくりそのまま表現の議論に持ってきたものになります。機械学習で害をもたらす情報を弾くのではなく、その人の善悪の判断で害をもたらす情報を弾くということです。ただ、自動運転車の場合は車が責任を取れない以上そのメーカーに責任を取るように要求されていたのが、人であれば責任を取ることができます。なので、責任はその犯罪をした人が負うことになります。そして、この考え方ならば、たとえ表現が「間違っていた」ものだったとしても(間違ったデータを提供した人に責任を問えないので)表現者に責任を問うことはできません。

 ただ、ここまで語ってきましたが、一つ前提条件があることを忘れていました。人工知能でも、犯罪者でも、その正気が保たれていた場合でないといけません。では、正気を失った場合、どうなってしまうのか考えてみましょう。

 ここで、「いやいやいやターミネーターでもあるまいし人工知能が正気を失うなんてことあるわけない」とツッコミたい気持ちはわかります。が、人工知能でも正気を失ったような行動をとらせることは可能です。そもそも正気なんて他人が観測して主観的に定義するものです。普通の(過去の傾向から予想可能な)動きをしなければそれは正気を疑うべきです。だから犯罪において責任能力の有無を調べるための精神鑑定が大きな役割を果たすわけです。

 例えば、人工知能を載せた自動運転車が赤信号を前方に発見した場合を考えてみましょう。それが赤信号だと認知出来たら止まるべきですね。では、機械学習の時点で赤信号を青信号だと認識するように誤ったデータを与え続けたらどうなるでしょうか?答えは簡単です。赤信号を認識したとしてもその時の動きは青信号を認識したときの動きとなります。これ以上はあまり語る必要はないでしょう。赤信号なのに止まらず進み続ける車があったらその運転者の正気を疑いませんか?自分は疑います。

 ここにおける「誤ったデータを与え続ける」というのは別に時間が大事であるわけではありません。誤ったデータを数多く与えることが人工知能から正常な判断能力を奪う方法です。もっとも、今、自動運転車に搭載されているような人工知能はとてつもない数のデータに支えられており、高々一般人が自動運転車から「正気を奪う」なんて真似はできないという点は指摘しておきます。

 では、この機械学習における「誤ったデータ」を人間の概念に置き換えたら何になるのでしょうか?誹謗中傷も含まれますが、それに限った話ではありません。人の正常な判断能力を奪う情報は多いです。難しい表現にはなってしまいますが、人の判断能力を奪う情報として「ネガティブな感情を媒介として拡散するミーム」と表現するのがおそらくもっとも抜け漏れ、過剰な点が少ないものになるかなと考えます。怒り、悲しみ、恐怖などのネガティブな感情に付け込んでその情報について深く考えるよりも早く人に拡散してしまう情報になります。簡単に言うと「よく拡散される情報が人を狂わせている」わけです。

 ちなみに言っておきますけど自分も狂っています。自分は正直なところ界隈内での内ゲバは最高に楽しいコンテンツとして見ています。自分でさえ狂っているのですから好きなことをしていると犯罪者にされるかもしれないという「恐怖を媒介として拡散したミーム」によって集ったこの界隈にも狂気が紛れていると考えます。例えばフェミニストに対する悪意とか…ね?

 このように、拡散した悪意でさえ人を狂わせるのにそれが仮にある対象に収束した場合、収束先の人は正気を保てるとは到底考えられません。

 ただ、ここで大事になるのは情報を発表する段階ではその情報がポジティブな感情を媒介として拡散するのか、ネガティブな感情を媒介として拡散するのか、そもそも拡散するのかがわかりません。ゆえに、結果的にネガティブな感情を媒介として拡散した場合でもその情報の発信者に責任を問うことはできません。というのもネガティブな感情を媒介として拡散、そしてそれを基に攻撃したのは情報の発表者ではなく情報を受けて動いた人だからです。

 俗に「インフルエンサー」と呼ばれる人たちなら拡散することがほぼほぼ確定しているから責任を問えるのではないのか?と思われるかもしれませんが、あくまでインフルエンサーはインフルエンサーです。Influence(=影響)を与えられるのであって思い通りに人を動かせるわけではありません。そうです、「それぞれの人」という責任主体を置いて悪行の責任を情報源のみに置くことは誰も救わずただただ表現規制を強める結果になります。

人間の思考プロセスについて

 人間は情報を基に思考、判断し、行動するというプロセスを踏んでいます。情報という入力を思考、判断し、行動という出力を得るというシステム工学的な言い方もできます。(筆者はシステム工学は表面を触っただけで深くは学んでいないので間違ってたらごめんなさい)

 では、この情報はどのように仕入れているのでしょうか?情報を思考に組み込む作業の前には、その情報を思考に組み込むかの選択を行う思考が、また、その情報を得るための行動をするための思考、判断が為されたのではないのでしょうか?ただ、この判断は膨大な情報を抱え、読者それぞれが興味がある情報を機械学習で絞り込んでいるネットメディアに任せている部分もあります。また、興味があるからと極端になってしまう方向にフィードバックがなされ、思考と入ってくる情報の内でエコーチャンバー現象に近い現象が発生しているのではないのでしょうか?

 ゆえに、表現に思考の断片を探すことは不可能ではないと考えます。言うなれば、思考の原因としてではなく、思考の結果として偏った情報を仕入れた可能性はあり、警察が事件の捜査の際、表現物を押収し、被疑者の理解に努めることは否定できません。

 ただ、それでも言えることは情報を仕入れることは自己責任になるという点です。そして、何より大事なのは、インターネットで扱われている情報の量の多さから、特定の話題の発信をするアカウントの発信を禁止したところでその特定の話題の情報に興味があるのであればありつけるという点です。

 指摘される前にこの「仕入れる情報は自己責任である」という論の例外を指摘しておきます。その「自己責任で仕入れない情報」とは教育です。乳児期から思春期が終わるまでの教育はその人の責任にはできません。(逆に大学、専門学校に入学後、会社に入社後の教育はその組織に所属したことが基本的に自己責任である以上、そこで仕入れた情報も自己責任になります。)ゆえに、教科書に政府が介入する(=政府が責任を取れるようにする)わけです。

ケーススタディ

 ここまで長々と語ってきたのですが、実社会における例が分かりやすさには必要だと考えます。

ガーシーの場合

 「東谷義和参議院議員」とした方が良いでしょうか?とそれは置いておいてこのようなことがありました。

 実はこの事件をきっかけにこの文章を書き始めたのですが、この事件は、東谷義和参議院議員がきりたんぽ氏の4年前のキス映像を暴露し、誹謗中傷がYoutuberのきりたんぽ氏に集中し、それによるのか不明ですが、きりたんぽ氏は突発性難聴を患い、活動を休止したというものです。ここにおいて東谷義和氏の暴露行為の倫理性は問うべきではあるとは思います。が、きりたんぽ氏を活動休止に追い込んだのは東谷義和氏ではなく、誹謗中傷をした人たちです。それを考えずに「ガーシーが悪い」と吹聴し、ガーシー氏、もしくはその支持者を攻撃、誹謗中傷するのは東谷義和氏の情報によって誹謗中傷をするに至った人間と同じ穴の狢ではないでしょうか?

 また、このように情報源を攻撃することによって、裁きが済んだとの錯覚を与え、誹謗中傷に対する反省が無いのも問題であると考えます。その上、仮にガーシー氏から表現媒体を奪ったとしても、誹謗中傷していた人はおそらくほかの誹謗中傷できるターゲットを探しにゴシップ系の情報を集めに行くでしょう。それで誹謗中傷は止みますか?という点でガーシー氏から表現媒体を奪った(=表現の自由を制限した)ところで意味がありますか?

結論

 それぞれの人が取った行動の責任はそれぞれが取るべきであり、広義のインフルエンサー(多くの人に影響を与えるもの)に押し付けたところで、行動の判断主体はそのインフルエンサーではない以上、その影響を受けた行動の責任を取ることはできません。

 それでもなお、インフルエンサーに責任を押し付けるのなら、それは、犯罪者の擁護をしていると自分は捉えます。

 そして、誹謗中傷はインフルエンサー/メディアをどうにかしたところで収まるものではなく、それぞれの方が誹謗中傷をしないと意識することでしか減らすことができません。

 誹謗中傷を減らすことと、表現の自由を守ることはともに我々市民が責任ある主体として社会で動くことで実現し得る理想なのです。法律で、圧力で止めたところでなしえるものではありません。これが憲法12条の

この憲法が国民に保障する自由及び権利は、国民の不断の努力によつて、これを保持しなければならない。又、国民は、これを濫用してはならないのであつて、常に公共の福祉のためにこれを利用する責任を負ふ。

日本国憲法第12条

 「不断の努力」ではないでしょうか?日本国憲法の理想とする国民に少しでも近づきませんか?


この記事が気に入ったらサポートをしてみませんか?