見出し画像

Agile Governance Summit報告 #4 Democracy beyond Democracy

サイバー・フィジカル・システム(CPS)におけるデモクラシー(民主主義)とは?人間の偏見とテクノロジーの関係、人間の意思決定領域、未来の民主主義はどうあるべきなのでしょうか。「デザイン・シンキング」で知られるDanish Design Centre (DDC)のChristian Bason氏、Governance PrinciplesのタスクフォースメンバーでありThe Equality Machineの著者であるOrly Lobel氏、そして慶応大学法科大学院教授の山本龍彦氏を迎えて、熱い議論が交わされました。

本投稿は、2023年4月27日(木)に開催されたG7デジタル・技術大臣会合の関連イベント「Agile Governance Summit」の「Session #4: Democracy beyond Democracy」の模様について報告します。

Techlash(テクノロジー不信)が阻む対話

Center for Employment & Labor Policy (CELP) University of San Diego  Orly Lobel氏

冒頭にプレゼンテーションを行なったLobel氏は、今の時代をTechlash(テクノロジー不信の時代)と位置付け、その不信がテクノロジーに関する民主的な対話と参加プロセスを阻んでいると指摘しました。

私たちはTechlash、つまりテクノロジー不信の時代を迎えています。民主主義と参加型の政治には、共通の言語と共通の理解が必要です。だけど実際は抑圧のアルゴリズム、監視資本主義の時代、不平等の自動化などが声高に叫ばれているようにテクノロジーに対する恐れと不信があるために、きちんと合理的に話をしていくという民主主義的な参加プロセスが成立していません。少数の企業が先端テクノロジーを使い、他のステークホルダーが蚊帳の外で否定や批判しているという構図は、とても民主的とはいえないと思います。

そしてTechlashの一因であるアルゴリズムに埋め込まれた偏見への鍵としては「Fairness Through Awareness(認知を通じた公平性)」の実現を挙げました。

テクノロジーを駆動するアルゴリズムは偏見(バイアス)に基づいていて、包摂的ではないといった議論もあります。でもこれは人間の頭や心のなかにさまざまなバイアスがあり、それがブラックボックス化しているがゆえに、なぜ自分がこうしたのかを説明できないのと同じです。重要なのは、アルゴリズムを社会実装する前にテストをしてアウトプットを確認したうえで、埋め込まれたバイアスを検出してアルゴリズムに変更を加えるという、改善ループです。バイアスに盲目的になるのではなく「認知を通じた公平性」の実現が大切なのです。

Lobel氏の資料より

その他、Lobel氏はプライバシー vs 公益性、自由な言論 vs 包摂性など、複数の民主主義的な社会目標の緊張関係といった「規範の衝突」のほか、「データを完全に収集する権利」、人間とマシンとの間の信頼を醸成する政府責任といった論点を提供しました。

人間中心?アルゴリズムによる意思決定?

慶応大学法科大学院教授  山本龍彦氏

山本氏は、Lobel氏があげた論点のなかでも「データを完全に収集する権利」がこれまでにない発想の転換であるとコメントしました。

データ中心の民主主義的な社会では、あらゆる人からのデータをあまねくとらなければいけない、特定のコミュニティのデータが欠けていればUnder Representation、つまり平等に取り上げていないことになってしまうという指摘です。民主主義社会の特権でもあるプライバシーの名のもとにデータを公開しないということが、自分たちの意見や考え方を社会に反映できず、不利な状況を招くかもしれない。広くあまねくデータを取っていくことが、むしろインクルーシブな社会のために必要だという、これまでの発想を転換する議論だと思います。

Bason氏は、Techlash(テクノロジー不信)について「マシンが未来を決めることを回避するためにも、テクノロジーの利用は、常に人間をはじめとするすべての命・生物が中心に居なければならない」と訴求し、デジタル倫理コンパスについて共有しました。

Danish Design Centre (DDC) CEOのChristian Bason氏
Bason氏の資料より

デジタル倫理コンパスでは、ユーザーへのデータ・コントロール権、不平等を生む可能性、テクノロジーへの理解など20以上の項目に沿って内在するリスクを可視化します。管理職や製品設計担当などがこのツールを利用することによって、責任と倫理を兼ね備えたサービスや製品について検証することができます。

【参考】デジタル倫理コンパスについて

この「人間中心」の議論を受けて、山本氏は「実際はAIと人間がハイブリッドな形で意思決定していく方向に向かうのではないか?」という問いを投げかけ、Lobel氏は「今、AIの未来に対しての答えを出すのには懐疑的だ」としたうえで、下記のように回答しました。

EUや米国がAI法を出してきていますが、今はまだ抽象的で、もっと文脈が整理されないと本当の答えは出てこないと思います。例えば、民間の航空業界では最もリスクの高い状況においてはパイロットではなく、機械に任せるという判断をしています。つまり「安全」という明確な目標に対して、人間が意思決定をしている。つまり目標設定は人間が合意する必要があるのです。いったん目標が定まり、その達成にアルゴリズムの方が長けているということであれば、人間を除外してもいいと思います。ただしこれは非常に複雑な問いであり、民主主義社会として意思決定のステージについてもっと考える必要があります。

これに対し、Bason氏は「アルゴリズムによる意思決定は、文化的な社会受容次第だ」と前置きしつつ、私たちに必要なのは「実験」だとコメントしました。

私たちの社会は民主的な対話に基づいてつくられてきました。非常にいろんなことが早く進んでしまう時代ですが、やはり段階を踏んだ意思決定が必要です。果たしてAIが民主主義をより豊かにしてくれるのか、もっと透明性を高めてくれるのか、人間とマシンとのあいだで意思決定がどのようにできるのか、組織のありかたへの影響など、まずはいろんな実験をしていくことだと思います。

山本氏は「憲法研究者として、意思決定の領域によってはむしろ人間がいないほうが目標達成できるというのはショッキングな話だ」としたうえで、実は例えば今の憲法においても民主的に選ばれたわけではない裁判官が判決という重要な意思決定をする仕組みを私たちの社会がつくっていることを指摘し、アルゴリズムの意思決定についてもその「判断をする権利」を人間が持っていれば民主主義は維持されると言えるのかもしれないとコメントしました。

AIと民主主義

生成AIについて、Lobel氏は下記のようにコメントしました。

生成AIによって民主化できる領域があると思います。まずは「参加」です。例えば、弁護士を雇うハードルが高いことを考えれば、ChatGPTによってより多くの人が自分たちの法的の権利を確認して、法律サービスへアクセスしやすくなるかもしれない。同じことが医療、教育、メディア、政治に対しても言えます。

生成AIに、公共・公益オプションがあることも重要です。公共セクターが調達したプログラムやアルゴリズムをオープンソースにして、みんなで編集できるようなことをやるべきです。生成AIの信頼性、アクセス性、公正性のためにはそういったことも重要だと思います。

さらに会場から寄せられた「意思決定をAIに委ねるというより、AIが人々の議論をファシリテーションすることによって熟議を踏まえたよりよい意思決定に到達する可能性は?」との質問に対し、Lobel氏は下記のようにコメントしました。

AIを通じた対話には大きな可能性があると思います。患者と介護者、あるいは教育現場に置かれたソーシャルロボットが人間の対話を増やした研究があります。分断が進行している私たちの社会では、互いに話もしないという断絶がおきています。AIによる対話促進は考えたことがなかったですが、民主主義にとって素晴らしい視点だと思います。

また「理があれば、人は同意するはずだという前提」に関する会場からの質問には下記のように回答しました。

民主主義においては、理解したからといって必ずしも合意しなくてもよいわけです。矛盾、衝突も民主主義の一部であり、だからこそ私たちはチェック&バランスによって途中で方向転換ができる柔軟性があるのです。AIが本当にスーパーインテリジェンスになってすべてをコントロールしてしまい「方向転換ができない」社会になるのが非常に怖いと思っています。

終わりに

「選挙で投票に行けば参加したことになる民主主義とは、今日の話は異なります」という山本氏の冒頭発言にあったとおり、すべての議論が「そもそも民主主義とは何か」という問いになって自分に戻ってくるセッションでした。参加、対話、熟議、矛盾、衝突など民主主義をめぐるキーワードに出会うたびに、先端テクノロジーがこうした民主的価値を飛び越えてしまえる可能性にも気付かされ、当たり前だと思っていたことの危うさにも思いを馳せることになりました。

今回のAgile Governance Summitでは、所有権、資本主義、民主主義といった自分達の生活に深く根付くシステムを、プルリーバース/多元世界という軸を入れることであえて相対化し、「正解がない」なかで議論をすることにトライしました。聞けばすぐ「回答」を与えてくれるChat GPTとは違い、価値判断を保留したまま進める議論は、会場にいる参加者の方々をモヤモヤさせたのではないかと思います。

「絶対の答えがない」からこそ、対話できることがある、場に出てくるものがあることを信じて参加者の方に多くを委ねたイベントとなりました。一緒にこの場を作り上げてくださった登壇者、参加者の皆様、運営に関わってくださった全ての方に御礼を申し上げます。

引き続き、私たち自身も、ジレンマや葛藤と共に、第三の道を手探りで模索し続けていきたいと思います。

隅屋輝佳(世界経済フォーラム第四次産業革命日本センター アジャイルガバナンス プロジェクトスペシャリスト)
ティルグナー順子(世界経済フォーラム第四次産業革命日本センター 広報)

【ご参考】


この記事が気に入ったらサポートをしてみませんか?