見出し画像

AI倫理に関するユネスコ勧告(2021)


はじめに

2021年9月23日にユネスコが採択した「AI倫理に関するユネスコ勧告:重要な事実」のほぼ全文仮訳を掲載します。

AI倫理に関するユネスコ勧告

下の文章はユスネコのサイトに掲載されている、ユネスコ事務局長補ラモス氏によるAI倫理についての解説です。そのあと、勧告本文を掲載しています。
-----
ユネスコは、そのユニークな使命のもと、数十年にわたり、科学技術が倫理的なガードレールをしっかり守って発展するよう、国際的な取り組みを主導してきた。遺伝子研究であれ、気候変動であれ、科学研究であれ、ユネスコは科学的発見の利益を最大化する一方で、マイナス面のリスクを最小化し、より包摂的で、持続可能で、平和な世界に貢献することを保証する世界基準を提供してきた。また、神経技術の倫理、気候工学、モノのインターネットなどの分野におけるフロンティアの課題も明らかにしてきた。

AIの急速な台頭は、医療診断の促進から、ソーシャルメディアを通じての人とのつながりの実現、自動化された作業による労働の効率化まで、世界的に多くの機会を生み出している。

しかし、このような急速な変化は、倫理的な懸念も大きくしている。これらは、AIシステムがバイアスを埋め込み、気候の悪化を助長し、人権を脅かすなどの可能性から生じている。AIに関連するこのようなリスクは、すでに既存の不平等の上に重なり始めており、すでに疎外されている集団にさらなる被害をもたらす結果となっている。

人工知能ほど、倫理的コンパスが重要な分野は他にない。これらの汎用技術は、私たちの働き方、交流の仕方、生き方を再構築しつつある。世界は、6世紀前に印刷機が導入されて以来のペースで変化しようとしている。AI技術は多くの分野で大きな利益をもたらすが、倫理的なガードレールがなければ、現実世界の偏見や差別を再現し、分断を助長し、基本的人権と自由を脅かす危険性がある。

ガブリエラ・ラモス
ユネスコ事務局長補(社会・人間科学担当)

1.なぜ世界的な勧告が必要なのか?

人工知能(AI)の急速な台頭は、ヘルスケアの診断の促進から、ソーシャルメディアを通じての人とのつながりの実現、自動化された作業による労働の効率化まで、世界的に多くの機会を生み出している。

しかし、こうした急速な変化は、同時に深い倫理的な懸念をも引き起こしている。AIシステムが潜在的に持っているバイアスの埋め込み、気候悪化の助長、人権への脅威などである。AIに関連するこのようなリスクは、すでに既存の不平等に加えて、すでに社会から疎外されているグループへのさらなる危害をもたらし始めている。

この課題の緊急性を認識したユネスコは、AI倫理に関する初の世界基準である「人工知能の倫理に関する勧告」(以下、「勧告」)を発表した。この枠組みは2021年11月に全193加盟国によって採択された。

人間の権利と尊厳の保護は、透明性や公平性といった基本原則の推進に基づく勧告の礎であり、AIシステムに対する人間の監視の重要性を常に念頭に置いている。

しかし、この勧告を特別に適用可能なものにしているのは、その広範な政策行動領域であり、政策立案者が、データ・ガバナンス、環境と生態系、ジェンダー、教育と研究、健康と社会的福利、その他多くの領域に関して、中核となる価値観と原則を行動に移すことを可能にしている。

■ポイント
AIへのダイナミックな理解
勧告は、AIを、知的行動に類似した方法でデータを処理する能力を持つシステムとして広く解釈している。技術革新の急速なペースは、固定された狭い定義をすぐに時代遅れにし、将来を見据えた政策を実現不可能にするため、このことは極めて重要である。

コア・バリュー

勧告の中心は、人類、個人、社会、環境のために働くAIシステムの基礎を築く4つのコア・バリューである。
(1)人権と基本的自由、人間の尊厳の尊重、保護、促進
(2)平和で公正そして相互に結びついた社会生活
(3)多様性と包摂性の確保
(4)環境と生態系の繁栄

2.AIへの人権的アプローチ

核となる10原則は、AIの倫理に対する人権中心のアプローチを示している。

1 均衡性と無害化
AIシステムの利用は、正当な目的を達成するために必要な範囲を越えてはならない。リスク評価は、そのような使用から生じる可能性のある危害を防止するために用いられるべきである。

■ポイント
社会的スコアリングや集団監視にAIを使用してはならない。
この勧告は、社会的採点や集団監視の目的でAIシステムを使用することを禁止する規定を含む初めての国際規範文書である。

2 セーフティとセキュリティ
AIアクターは、攻撃に対する脆弱性(セキュリティリスク)と同様に、望ましくない危害(セーフティリスク)を回避し、対処すべきである。

◆キー概念  AIのアクターとAIのライフサイクル
AIのアクターとは、研究、設計、開発から展開、使用(保守、運用、取引、資金調達、監視と評価、使用終了、解体、終了を含む)に至るまで、AIのライフサイクルのあらゆる段階に関与するあらゆるアクター(自然人または法人)を指す。

3 プライバシーとデータ保護の権利
プライバシーの保護は、AIのライフサイクル全体を通じて推進されなければならない。適切なデータ保護の枠組みも確立されるべきである。

ケース1  身近な個人に注目する
私たちがオンラインで共有するデータは、知らないうちに個人のプライバシーに影響を与えていることがある。ソーシャルメディアの「いいね!」のパターンやスクロール速度などの抽象的な情報を含む個人のオンライン上での行動は、モデル化され、ターゲット広告や行動操作の基礎として使用される可能性がある。

4 マルチステークホルダーおよび適応的ガバナンスと協力
データの利用においては、国際法と国家主権が尊重されなければならない。さらに、AIガバナンスへの包摂的なアプローチには、多様な利害関係者の参加が必要である。

5 責任と説明責任
AIシステムは監査可能で追跡可能であるべきである。人権規範との抵触や環境的ウェルビーイングへの脅威を避けるため、監督、影響評価、監査、注意義務の仕組みが必要である。

ケース2 自動拒絶
ローンを申し込む際、銀行がAIを利用して財務状況を自動評価し、申し込みが承認されるかどうかを判断している可能性がある。このような判断が人間の監視や説明責任なしに行われた場合、その結果は重大なものとなる可能性がある。
第一に、人間によるチェックがないAIシステムはミスを犯す可能性がある。
第二に、決定に対して最終的な責任を負える人間がいない場合、明確な不服申し立てプロセスが存在しない。

6 透明性と説明可能性
AIシステムの倫理的な導入は、その透明性と説明可能性に依存する。例えば、ある意思決定がAIによってもたらされたものであることを、人々に認識させるべきである。透明性や説明可能性と、プライバシー、安全性、セキュリティといった他の原則との間には緊張関係がある可能性があるため、透明性と説明可能性のレベルは文脈に適したものでなければならない。

◆キー概念 説明可能性
「ブラックボックス」という言葉は、不透明で解釈が難しいAIシステムを表すのに使われてきた。「説明可能性」とは、アルゴリズムによる意思決定の背後にあるロジックを専門家が完全に解釈できること、そしてこのロジックを利用者にわかりやすい言葉で説明できることを必要とする。

7 人間による監督と決定
加盟国は、AIシステムが最終的な人間の責任と説明責任を代替しないようにすべきである。

8 持続可能性
AI技術は、国連の「持続可能な開発目標」に掲げられているものを含め、常に進化し続ける一連の目標として理解される「持続可能性」への影響に対して評価されるべきである。

9 アウェアネスとリテラシー
オープンでアクセスしやすい教育、市民参加、デジタルスキルとAI倫理のトレーニング、メディア情報リテラシーを通じて、AIとデータに関する一般市民の理解を促進すべきである。

10 公正と反差別
AIの関係者は、社会正義、公正、差別撤廃を推進するとともに、AIの恩恵がすべての人に行き渡るよう、包摂的なアプローチをとるべきである。

◆キー概念 機械学習
機械学習は、システムがデータから学習し、明示的にプログラムされることなく改善することを可能にするAIの応用である。

ケース3 見た目以上の効果
機械学習アルゴリズムには偏りがあり、保護された属性によって定義された特定のサブグループでは、しばしばパフォーマンスが低下することがある。これは糖尿病性網膜症診断のケースで示されている。
・肌の白い人の精度 73%
・肌の黒い人の精度 60.5%

3.実行可能な政策

主要な政策分野では、加盟国がAIの責任ある発展に向けて前進できる分野を明確にしている。価値観や原則は、倫理的なAIの枠組みの基礎を確立する上で極めて重要であるが、最近のAI倫理の動きでは、ハイレベルな原則を超え、実践的な戦略に向かう必要性が強調されている。本勧告は、下図に要約したように、政策行動のための11の主要分野を設定することで、まさにこれを実現している。この小冊子では、そのうちの5つをより深く掘り下げている。

政策分野

倫理的ガバナンスと管理責任
AIのガバナンス・メカニズムは、包摂的で透明性が高く、学際的、多国間、マルチステークホルダーであるべきである。つまり、AIの影響を受ける地域社会は、さまざまな分野の専門家に加えて、そのガバナンスに積極的に関与しなければならない。さらに、ガバナンスは単なる勧告にとどまらず、予見、実施、救済を含むものでなければならない。

■ポイント 危害の防止
勧告は、リスクと影響が特定された時点でAIガバナンスを止めることはできないと強調している。むしろ、特定された危害はすべて調査され、影響を受けたコミュニティが救済を受ける権利を持つように対処されなければならない。

経済と労働
加盟国は、AIシステムが労働市場に与える影響を検討し、規制を試みるべきである。技能格差を是正するため、すべての教育レベルにおいてAI関連学問をコア・スキルとすべきである。これは、市場競争を促進し、国内および国際的な規模での消費者保護を確保するものである。

データ政策
加盟国は、適切なデータ収集とその利用を規制する手段を確保しつつ、個人のプライバシーを確保するため、効果的なデータガバナンス戦略のメカニズムを導入すべきである。

■ポイント トレーニング用データ
この勧告は、AIの訓練、開発、使用のために、質の高い堅牢なデータセットの使用を促し、促進するものである。これには、基準となるデータセットやオープンで信頼に値するデータセットの作成が含まれる。

健康と社会的ウェルビーイング
加盟国は、健康増進とグローバルな健康リスクへの取り組みのためにAIを導入することを目指すべきである。ヘルスケアとメンタルヘルスケアにおけるAIは、安全で、効果的、効率的で、医学的に証明されたものであるよう規制されるべきである。さらに、加盟国は、AIがメンタルヘルスとウェルビーイングに与える影響に関する研究を奨励すべきである。

■ポイント 収斂する技術
新たな技術は互いに収斂し、明確な倫理的懸念を生み出している。勧告には、ニューロテクノロジーやブレイン・コンピューター・インターフェースを含む、このような融合に関する規定が含まれている。

教育と研究
加盟国は、データに関する意識向上プログラムを含め、国民に十分なAIリテラシー教育を提供すべきである。その際、周縁化されたグループの参加を優先すべきである。加盟国はまた、倫理的AIに関する研究イニシアチブを奨励すべきである。

■ポイント 倫理スキル
勧告では、AI倫理、コミュニケーション、チームワークのスキルは、基本的な読み書き能力、計算能力、コーディング能力、デジタルスキルなど、広く認識されているスキルとともに、優先事項として認識されている。

ジェンダー
加盟国は、AIがジェンダー平等に貢献する可能性を最大限に引き出すと同時に、AIがジェンダー格差を悪化させる可能性を防止すべきである。女性と女児が取り残されないように、女性と女児を支援する政策に専用の資金を投入すべきである。例えば、STEMキャリアにおける女性への投資などである。

ケース 4 見えないバイアス、見える不平等
AIは、例えば強い男性偏向を特徴とするような、既存の人間の採用バイアスを表す人材データセットで訓練されるかもしれない。その結果、AIシステムは男性のバイアスを再現することになる。
・STEMキャリアのFacebook広告を受け取った男性は女性より20%多かった。

環境と生態系
加盟国および企業は、カーボンフットプリント、エネルギー消費、原材料の抽出など、AIシステムの直接的・間接的な環境への影響を評価すべきである。また、必要に応じて、加盟国は、気候関連問題の予測、予防、制御、緩和を支援するためにAIソリューションが使用されるようにインセンティブを導入すべきである。

ケース5 消費電力が大きいアルゴリズム
ビッグデータセットに基づく大規模なAIモデルの学習には、多くの計算が必要となる。例えば、一般的なAIのトレーニングモデルは、自動車自体の製造を含め、平均的な自動車の生涯排出量の約5倍に相当する626,000ポンド以上のCO2を排出する可能性がある(Strubell et al, 2019)。

4.勧告の実施

勧告の効果的な実施を確保するための実行可能なリソースを加盟国に提供するには、まだ長い道のりがある。このため、ユネスコは2つの実践的方法論を開発する。

(1)準備状況評価手法(RAM)
説明:RAM は、加盟国が勧告を効果的に実施する準備が整っているかどうかを評価するのに役立 つよう設計されている。RAM は、以下のような質問を扱うことができる。
・AI を規制する法律は整備されているか?
・国のインフラはAI技術へのアクセシビリティをサポートしているか?

目的
この方法論は、加盟国が自国の準備状況を確認し、ユネスコが能力開発支 援をカスタマイズするための基礎となる。また、加盟国がAIの倫理的な開発と利用に向けたロードマップを作成する際にも利用できる。

(2)倫理的影響評価(EIA)
EIAは、AIプロジェクトチームが影響を受けるコミュニティと協力して、AIシステムが及ぼしうる影響を特定し評価することを支援することによって、勧告を運用する構造化されたプロセスである。EIAは、以下のような問題に取り組むことができる。
・このAIシステムによって悪影響を受ける可能性が最も高いのは誰か?
・これらの影響はどのような形で現れるのか?
・これらの危害を防止するために何ができるか、またこの危害防止に資源は配分されているか?

目的
EIAは、AIプロジェクトの潜在的影響について考察し、必要な危害防止措置を特定する機会を提供する。

5.参加

勧告のこれらの価値、原則、政策行動領域、実践的方法論を総合すると、責任あるAIイノベーションとその利益の衡平な分配を促進する方法について、加盟国に指針を提供することになる。ユネスコは、政府、民間セクター、学術機関、市民社会組織と協力し、この勧告を政策や行動に反映させている。多角的な実施戦略には、以下のような要素が含まれる。

・AI倫理に関するグローバル・オブザーバトリー(グローバル・オブザーバトリー): 世界中のAIの倫理的発展と利用に関する最新の分析と、各国における勧告の実施を通じて生み出された知識をワンストップで提供する革新的なデジタル・プラットフォーム。
・AI倫理に関するグローバル・フォーラムは、AI技術が提起する課題に関する最先端の知識を向上させ、政府やその他の利害関係者間の相互学習を促進するためのハイレベルな年次イベントである。
・AI 倫理専門家ネットワーク(AIEB):勧告の実施と能力開発ツールの適用を支援するため、ニーズに応じて加盟国に派遣される専門家の柔軟な施設。
・女性AI倫理(W4AI Ethics)ネットワークは、産業界、政府、市民社会における影響力のある女性リーダーのためのプラットフォームであり、AIにおける、またAIを通じた男女平等への変革を推進する。

勧告のウェブサイト(www.unesco.org/artificial-intelligence)をご覧いただき、これらのイニシアティブの進展に期待していただきたい。これらのイニシアチブへの参加を希望される方は、ai-ethics@unesco.org まで。

この記事が気に入ったらサポートをしてみませんか?