見出し画像

AIガバナンス知識体系(IAPP)を機械翻訳で見てみよう⭐︎

こんにちは!

中立的な専門機関であるIAPPは、個人情報・プライバシーに関するプロフェッショナル認定試験、CIPPを提供していますが、AIガバナンスに関する認定試験(AIGP)をまもなく開始するとのこと。

そのBody of Knowledge(知識体系)をちら見したところ、日本でのAIガバナンスにおいても参考になりそうでした。

ということで、今日は個人の勉強がてら、機械翻訳しましたので共有します。(使用ツールGPT4)

AIガバナンスプロフェッショナル(AIGP)知識体系

AIGP BODY OF KNOWLEDGE (BoK)

急速に台頭する生成型人工知能は、AIがもたらす社会への約束と危険に対して、私たちの集合的な注意を集中させています。興奮と恐怖の両方を感じながら、AIの潜在的な利益を活用した未来をどのように築くか、その落とし穴を避けながらどうするかを問い続けています。

毎日、AI駆動のシステムが働き方、創造、問題解決、コミュニケーション、さらには病気の診断や治療に変革をもたらす潜在性について聞きます。高度なAIの可能性は無限に思えます。

しかし、AI開発の各段階で適切なテスト、評価、検証、確認がなされなければ、基礎となるAIモデルは偏見を永続させ、他の社会的課題を増幅させ、後のシステムを通じて数十年にわたって影響を及ぼすことになります。

私たちは、信頼できるAIが出現するガバナンスプロセスの構築と精錬を続けなければならず、倫理的で責任あるAIを構築する人々への投資も必要です。コンプライアンス、リスク管理、法務、ガバナンスに従事する者、データサイエンティスト、AIプロジェクトマネージャー、モデル運用チームなどは、AIガバナンスにおける拡大された課題に対処する準備をしなければなりません。

この需要に応えるために、IAPPは新興AIガバナンス職のための人工知能ガバナンスプロフェッショナル(AIGP)認定と研修を開発しました。AIGP研修を受け、認定されたプロフェッショナルは、AIエコシステムの責任ある管理のための新興ベストプラクティスとルールを実装し、チーム間で効果的にコミュニケーションする方法を知っています。私たちは、資格を持つAIガバナンスプロフェッショナルのコミュニティを育成する特権を持っており、リソースと拡大する知識を一箇所に集めることができます。

AIGP 知識体系の理解

AIGP 知識体系の主な目的は、AIGP 認定試験で評価される知識とスキルを文書化することです。

知識体系の領域は、AIガバナンスの専門家がリスクを軽減し、安全性と信頼性を確保する方法でAIの実装を指導するべき活動を捉えています。

主要な領域は6つあり、第7の領域は新興のガバナンスと法的問題を扱います:

- 領域1:「人工知能の基礎理解」は、AIと機械学習(ML)を定義し、異なるタイプのAIシステムとその使用事例の概要を提供し、AIモデルをより広い社会文化的コンテキストに位置づけます。

- 領域2:「AIの影響と責任あるAI原則の理解」は、制御されていないAIシステムが人間と社会に及ぼすリスクを特定し、信頼できる倫理的なAIに不可欠な特徴と原則を説明します。

- 領域3:「現行法がAIシステムにどのように適用されるかの理解」は、人工知能の使用を規制する現行法を調査します。

- 領域4:「既存および新興のAI法と基準の理解」は、グローバルなAI特有の法律(EU AI法やカナダのBill C-27など)と、AIシステムが責任を持って管理される方法を示す主要なフレームワークを概説します。

- 領域5:「AI開発ライフサイクルの理解」は、AIリスクが管理される文脈を広く概説します。

- 領域6:「責任あるAIガバナンスとリスク管理の実装」は、主要なAIステークホルダーが層をなすアプローチで協力し、社会に対するAIシステムの潜在的な利益を実現しながらAIリスクを管理する方法を説明します。

- 領域7:「進行中の問題と懸念の考察」は、AIガバナンスを巡る議論されている問題の一部を提示します。

知識体系には、試験で見つかる各知識体系部分からの設問数を示す試験ブループリント番号も含まれています。

AIGP 知識体系は、倫理、法律、プライバシー、コンピュータサイエンス、社会学、心理学の分野の専門家の大規模なグループによって開発され、責任あるAIステークホルダーの幅広さを代表しています。

知識体系は6ヶ月ごとにレビューされ(必要に応じて更新され)、変更は試験の更新に反映され、新しいコンテンツが試験に現れる少なくとも90日前に候補者に通知されます。

能力とパフォーマンス指標

知識体系の内容は、一連の能力とそれに関連するパフォーマンス指標として表されます。

能力は、広い知識ドメインを構成する関連するタスクと能力のクラスターです。

パフォーマンス指標は、より広い能力グループを構成する個別のタスクと能力です。試験の質問は、AIガバナンスの専門家がパフォーマンス指標に対する習熟度を評価します。

試験にはどのようなタイプの質問がありますか?

認定候補者にとって、パフォーマンス指標は、能力を示すために必要な知識の深さを案内するものです。
スキルとタスクに含まれる動詞(識別する、評価する、実装する、定義する)は、試験の質問の複雑さのレベルを示し、ブルームの分類(次の項参照)に対応します。

ブルームの分類

ブルームの分類(しばしばピラミッドとして表される)は、教育学習の目標を設定するために使用される認知スキルの階層です。

IAPPの試験問題は主に、覚える/理解するレベルと適用する/分析するレベルに焦点を当てています。

(ピラミッドの上から)

CREATE(創造する)
新しいまたは独自の作品を生み出す
デザイン、組み立てる、構築する、推測する、開発する、策定する、著作する、調査する。

EVALUATE(評価する)
評価する立場や決定を正当化する
評価する、議論する、防御する、判断する、選択する、支持する、価値を見出す、批評する、比重を量る。

ANALYZE(分析する)★
アイデア間の関連を引き出す
区別する、整理する、関連づける、比較する、対照する、識別する、検討する、実験する、問いを立てる、テストする。

APPLY(適用する)★
新しい状況で情報を使う
実行する、実装する、解決する、使う、示す、解釈する、操作する、スケジュールする、スケッチする。

UNDERSTAND(理解する)★
アイデアや概念を説明する
分類する、記述する、議論する、説明する、識別する、位置を特定する、認識する、報告する、選択する、翻訳する。

RENEMBER(記憶する)★
基本的な事実と概念を思い出す
定義する、複写する、リストアップする、暗記する、繰り返す、述べる。


7つのスキル領域ごとのパフォーマンス指標

領域I: 人工知能の基礎を理解する

Domain I: Understanding the Foundations   of Artificial Intelligence

領域I - 「人工知能の基礎を理解する」は、AIとML(機械学習)を定義し、異なるタイプのAIシステムとその使用例の概要を提供し、AIモデルをより広い社会文化的コンテキストに位置づけます。


I.A AIとML(機械学習)の基本要素を理解する(4問)

-AIとMLの広く受け入れられている定義と、AI/MLモデルが操作する基本的な論理数学原則を理解する
- 新規及び新興の法律の下でのAI/ML定義の共通要素を理解する:
1. 技術
(エンジニアリングまたはマシンベースのシステム;または論理、知識、学習アルゴリズム)
2. 自動化
(さまざまなレベルの要素)
3. 人間の役割
(目標を定義するかデータを提供する)
4. 出力(コンテンツ、予測、リコメンデーション、決定)
 - AIシステムが社会技術システムであることの意味を理解する
 -学際的な協力の必要性を理解する
(UX、人類学、社会学、言語学の専門家が関与し、評価されることを確実にする)
 - AIシステムの分類に関するOECDフレームワークの知識
 - AIの使用例と利点を理解する
(認識、イベント検出、予測、パーソナライゼーション、インタラクションサポート、目標駆動型最適化、リコメンデーション)


I.B AIシステムのタイプ間の違いを理解する(4問)
- 強い/広範なAIと弱い/狭いAIの違いを理解する
- 機械学習の基本とその訓練方法
(監視あり、監視なし、半監視、強化学習)を理解する
- ディープラーニング、生成AI、マルチモーダルモデル、トランスフォーマーモデル、および主要プロバイダーを理解する
- 自然言語処理; テキストを入力と出力とすることを理解する
- ロボティクスとロボティックプロセスオートメーション(RPA)の違いを理解する

I.C AIテクノロジースタックを理解する(2問)
- プラットフォームとアプリケーション
- モデルタイプ
- コンピュートインフラストラクチャ:ソフトウェアとハードウェア(サーバーとチップ)

I.D AIとデータサイエンスの歴史と進化を理解する(2問)
- 1956年のダートマス夏の研究プロジェクトにおけるAI
- 夏、冬、および重要なマイルストーン
- 現在の環境がコンピューティングインフラストラクチャと技術メガトレンド(クラウド、モバイル、ソーシャル、IOT、PETs、ブロックチェーン、コンピュータビジョン、AR/VR、メタバース)の指数関数的成長によってどのように促進されているかを理解する


領域II:人々へのAIの影響と責任あるAIの原則を理解する

Domain II: Understanding AI Impacts  on People and Responsible AI Principles

ドメインIIでは、管理されていないAIシステムが人間と社会に及ぼすリスクを特定し、信頼できる倫理的なAIに不可欠な特性と原則を説明します。


II.A AIシステムによって引き起こされる主要なリスクと害を理解する(4問)
- 個人に対する潜在的な害(市民権、経済的機会、安全性)を理解する
- グループに対する潜在的な害(サブグループへの差別)を理解する
- 社会に対する潜在的な害(民主的プロセス、政府機関への公衆の信頼、教育へのアクセス、雇用の再分配)を理解する
- 企業や機関に対する潜在的な害(評判、文化、経済、加速リスク)を理解する
- エコシステムに対する潜在的な害(自然資源、環境、サプライチェーン)を理解する

4,II.B 信頼できるAIシステムの特性を理解する(4問)
- AIシステムが「人間中心」であることの意味を理解する
- 責任あるAIシステムの特性(安全、安心、回復力がある、有効かつ信頼できる、公平)を理解する
- AIシステムが透明であることの意味を理解する
- AIシステムが説明可能であることの意味を理解する
- AIシステムがプライバシー強化されていることの意味を理解する

2,II.C 既存および新興のAIに関する倫理的ガイダンスの類似点と相違点を理解する(2問)
- 倫理的ガイダンスがフェアインフォメーションプラクティス、欧州人権裁判所、経済協力開発機構の原則にどのように根ざしているかを理解する。
- OECD AI原則、ホワイトハウス科学技術政策局のAI権利章典に関するブループリント、ハイレベル専門家グループAI、ユネスコ原則、アシロマAI原則、電気電子技術者協会の自律的および知的システムの倫理に関するイニシアティブ、CNILのAIアクションプラン


領域III : 現行法がAIシステムにどのように適用されるかを理解する

Domain III: Understanding How Current Laws  Apply to AI Systems

は、人工知能の使用を規制する現行法を概観します。

III.A AI使用と関連する現存する法律を理解する(6問)
- 不公平かつ欺瞞的な慣行に対処する法律を知る
- 関連する非差別法(クレジット、雇用、保険、住宅等)を知る
- 関連する製品安全法を知る
- 関連する知的財産法を知る
- EUデジタルサービス法(DSA)の基本要件(レコメンデーションシステムの透明性)を理解する
- データ使用に関連するプライバシー法を知る

III.B GDPRの重要な交差点を理解する(3問)
- 自動意思決定、データ保護影響評価(DPIA)、匿名化とそれらがAIシステムとどのように関連するかを理解する
- AI適合性評価とDPIAの要件の交差点を理解する
- アルゴリズムシステムの人間による監視の要件を理解する
- AIシステムのロジックについて意味のある情報を個人が得る権利を理解する

III.C 責任改革を理解する(1問)
- EU製品責任法の改革についての認識
- AI製品責任指令の基本を理解する
- 米国連邦機関の関与(EO14091)についての認識


領域IV : 既存および新興のAI法と基準を理解する

Domain IV: Understanding the Existing  and Emerging AI Laws and Standards

は、世界的なAI特有の法律と、AIシステムが責任を持って管理される方法を示す主要なフレームワークを特定し、説明します。


IV.A EU AI法の要件を理解する(5問)
- AIシステムの分類フレームワーク(禁止、高リスク、限定リスク、低リスク)を理解する
- 高リスクシステムと基礎モデルに対する要件を理解する
- 通知要件(顧客および国家当局への通知)を理解する
- 違反時の執行フレームワークと罰則を理解する
- 革新的なAIのテスト手順および研究のための例外を理解する
- 透明性の要件、すなわち登録データベースを理解する

IV.B 他の新興のグローバル法を理解する(3問)
- カナダの人工知能およびデータ法(C-27)の主要な構成要素を理解する
- AIの使用を規制する米国の州法の主要な構成要素を理解する
- 中国サイバースペース管理局の生成AIに関する草案規制を理解する

IV.C 主要なリスク管理フレームワークと基準の類似点と相違点を理解する(4問)
- ISO 31000:2018 リスク管理 – ガイドライン
- 米国国立標準技術研究所、AIリスク管理フレームワーク(NIST AI RMF)
- 欧州連合、AIに関する調和化されたルールを定める規則の提案(EU AIA)
- 欧州評議会 人権、民主主義、法の支配保証フレームワーク(HUDERIA)
- IEEE 7000-21 システム設計中の倫理的懸念に対処するための標準モデルプロセス
- ISO/IEC ガイド51 安全面 – 基準への含有に関するガイドライン
- シンガポールモデルAIガバナンスフレームワーク


領域V : AI開発ライフサイクルを理解する

Domain V: Understanding the AI Development Life Cycle

では、AIライフサイクルとAIリスクが管理される広範な文脈を説明します。


V.A AIシステム計画フェーズの主要なステップを理解する(2問)
- ビジネスの目標と要件を決定する
- プロジェクトの範囲を決定する
- ガバナンス構造と責任を決定する

V.B AIシステム設計フェーズの主要なステップを理解する(2問)
- データ戦略を実装する。これには以下が含まれる:
 • データの収集、整理、クレンジング、ラベリング
 • 匿名化、最小化、差分プライバシー、連合学習のようなPETsの適用
- AIシステムアーキテクチャとモデル選択を決定する(めざす精度と解釈可能性に応じてアルゴリズムを選択する)

V.C AIシステム開発フェーズの主要なステップを理解する(2問)
- モデルを構築する
- 特徴エンジニアリングを実行する
- モデルトレーニングを実行する
- モデルテスティングとバリデーションを実行する

V.D AIシステム実装フェーズの主要なステップを理解する(2問)
- 準備評価を実行する
- モデルを本番環境にデプロイする
- モデルを監視し、バリデーションする
- モデルを維持する


領域VI : 責任あるAIガバナンスとリスク管理の実装

Domain VI: Implementing Responsible AI Governance  and Risk Management

では、主要なAIステークホルダーが層をなすアプローチで協力し、AIリスクを管理しながらAIシステムが社会にもたらす潜在的な利益を実現する方法について説明します。

VI.A 他の運用リスク戦略とのAIリスク管理の相互運用性を確保する(2問)
- セキュリティリスク、プライバシーリスク、ビジネスリスクなど、他の運用リスク戦略とAIリスク管理を統合する

VI.B 企業にAIガバナンス原則を統合する(2問)
- 革新を促進するマインドセットを採用する
- ガバナンスをリスク中心に確保する
- 計画と設計が合意に基づくものであることを確保する
- チームが成果に焦点を当てることを確保する
- 知的自己管理を可能にする非規範的アプローチを採用する
- フレームワークが法律、業界、技術に依存しないものであることを確保する


VI.C AIガバナンスインフラを確立する(5問)
- 開発者、デプロイヤー(第三者にAIシステムを提供する者)、またはユーザーであるかを判断する;
AIシステムを開発する企業とそれを使用またはデプロイする企業間の責任の違いを理解する;
全ての当事者のためのガバナンスプロセスを確立する;
AIソフトウェアソリューションの調達と評価のためのフレームワークを確立する
- プライバシー責任者、倫理責任者、責任あるAIのためのオフィス、AIガバナンス委員会、倫理委員会、アーキテクチャステアリンググループ、AIプロジェクトマネージャーなどを含むがこれに限らない、AIガバナンスの人々とグループの役割と責任を確立し、理解する
- 上級リーダーシップと技術チームからのAIガバナンス支援を提唱する:
• 技術チームが迅速かつ効率的にAIソリューションを構築するプレッシャーを理解する
• データサイエンスチームとモデル運用チームの働き方を理解する
• 行動と文化の変化に影響を与える能力を持つ
- 組織のリスク戦略と許容度を確立する
- AIおよびMLアプリケーションの中央インベントリとアルゴリズムのリポジトリを開発する
- 責任あるAI責任ポリシーとインセンティブ構造を開発する
- AI規制要件を理解する
- 組織のための共通のAI用語と分類法を設定する
- 継続的に倫理的な行動を促進する文化を育むために、企業に知識リソースとトレーニングを提供する
- ビジネス機能のAI成熟度レベルを決定し、不足を対処する
- AI管理のために既存のプライバシーおよびデータガバナンスの慣行を使用し、適応する
- 第三者リスクを管理し、エンドツーエンドの説明責任を確保するためのポリシーを作成する
- 国による規範/期待の違いを理解する

VI.D AIプロジェクトをマッピング、計画、範囲定義する(6問)
- ビジネスケースを定義し、AIシステムの設計におけるトレードオフが考慮された場合のコスト/利益分析を実行する。「なぜAI/MLか?」
- 内部/外部リスクおよび寄与要因(禁止的、主要、中程度)を識別し、分類する
- 可能性/重大性損害マトリックスおよびリスク軽減階層を構築する
- PIAsを出発点として利用し、AIプロセスに合わせてカスタマイズすることでアルゴリズム影響評価を実行する。いつ実行し、誰を巻き込むかを知る
- AI意思決定における人間の関与/監督のレベルを確立する
- 次のステップを含むステークホルダー関与プロセスを実施する
• ステークホルダーの重要性を評価する
• 人口統計、分野、経験、専門知識、背景の多様性を含める
• ポジショニング演習を実行する
• 関与のレベルを決定する
• 関与方法を確立する
• 設計、開発、展開フェーズ中のAIアクターを特定す
• 透明性と説明可能性のためのコンプライアンス/開示義務を反映した規制当局と消費者向けのコミュニケーションプランを作成する(UIコピー、FAQ、オンラインドキュメント、モデルまたはシステムカード)
- オプション性と救済の実現可能性を決定する
- データの系譜と出所を図表化し、データが代表的で正確で偏りのないことを確保する
- 統計的サンプリングを使用してデータギャップを特定する
- AIシステムによって最も影響を受ける可能性のある人々から早期かつ継続的なフィードバックを求める
- テスト、評価、検証、バリデーション(TEVV)プロセスを使用する
- リスクファクターと比例管理に関する予備分析レポートを作成する

VI.E 開発中のAIシステムをテストし検証する(6問)
- 以下の方法を使用してAIシステムの信頼性、妥当性、安全性、セキュリティ、プライバシー、公正性を評価
• エッジケース、未確認データ、または潜在的な悪意のある入力を使用してAIモデルをテストする
• 反復性評価を実施する
• モデルカード/ファクトシートを完成させる
• 反実仮想説明(CFE)を作成する
• 敵対的テストと脅威モデリングを実施してセキュリティ脅威を特定する
• 信頼できるAIのためのOECDツールと指標カタログを参照する
• AIシステムの異なるレベルまたはモジュールでシステムエラーや障害を停止するための複数の軽減層を確立する
• 軽減戦略間のトレードオフを理解する
- プライバシー保護マシンラーニングの重要な概念を適用し、プライバシー強化技術とプライバシー保護マシンラーニング技術を使用してAI/MLシステムでのプライバシー保護を支援する
- AIシステムが失敗する理由を理解する
例には、脆弱性、幻覚、埋め込みバイアス、壊滅的な忘却、不確実性、偽陽性が含まれる
- 逆効果的な影響の修正可能度を決定する
- リスク追跡を実施して、リスクが時間とともにどのように変化するかを文書化する
- 異なる展開戦略を検討し、選択する

VI.F 展開後のAIシステムを管理・監視する(6問)
- AIシステムの目標が達成されたかどうかを決定するために、事後テストを実施し、「自動化バイアス」を意識する
- 内部および外部リスクに優先順位をつけ、トリアージし、対応する。- 必要に応じて(例えば、規制要件やパフォーマンスの問題のために)AIシステムを非活性化またはローカライズするためのプロセスが整っていることを確認する。
- 新しいデータ、人間のフィードバックなどでチューニングや再訓練を行いながら、展開されたシステムを継続的に改善・維持する。
- チャンピオンモデルを置き換えるためのチャレンジャーモデルの必要性を決定する。
- 各モデルをバージョン管理し、それらが訓練されたデータセットと関連付ける。
- 第三者からのリスクを継続的に監視し、悪意のある行為者を含む。
- 通信プランを維持・監視し、AIシステムが能力を更新した際にユーザーに通知する。
- AIモデルから派生した研究を公開することの潜在的な害を評価する。
- バグバッシングとレッドチーミングの演習を実施する。
- AIモデルの二次的/意図しない使用と下流の害のリスクを予測し、軽減する


領域VII : 進行中の課題と懸念の考察

Domain VII: Contemplating Ongoing Issues and Concerns

では、AIガバナンスに関する現在の議論やアイデアを提示します。

VII.A 法的課題への認識(2問)
- AIの特異性に適応し、開発者、デプロイヤー、ユーザー間で責任を割り当てるために、どのように一貫した不法行為責任フレームワークを作成するか。
- AIモデルとデータライセンシングを取り巻く課題は何か。
- 知的財産権を尊重するシステムを開発できるか。

VII.B ユーザーの懸念への認識(2問)
- AIシステムの機能と限界についてユーザーを適切に教育する方法は何か。
- 労働力をアップスキルおよびリスキルして、AIの利益を最大限に活用する方法は何か。
- 非AI代替に対するオプトアウトは可能か。

VII.C AI監査と説明責任の問題への認識(2問)
- グローバルに認定された第三者監査人の専門職をどのように構築し、それらのための一貫したフレームワークと基準を設定するか
- どのようなマーカー/指標がAIシステムが強化された説明責任(例えば、第三者監査、自動意思決定、機微データなど)の対象となるべきかを決定するか
- 企業がAIガバナンスと関連する倫理問題に対する自動チェックを使用して生産的であり続けるために、どのようにしてこの自動化を進化する基準と技術に迅速に適応させるか


感想

広範な文脈の知識体系として、よくまとまっているなぁというのが感想です。

特に印象に残ったのは、4点。

①広範・学際的ではあるが、論点がふんわりしてない
カバー範囲が広いとso what?になりがちですが、知識体系の構造がしっかりしており、特にVI章はよく考えられていると感じました。
発行母体は、IAPPという世界で最も有名な中立的な個人情報・プライバシーの多様な研究者・実務者が集まるコミュニティを運営する団体で、AIガバナンスに携わっておられる方も錚々たるメンバーのようです。

②人間中心のAI、個人の人権を守る視点で、法論点が充実
領域Ⅱの現行法の適用、領域ⅢのAI法(既存&これから)と充実、世界の個人情報保護法制のデファクトとなりつつあるGDPRでの着眼点についても明記されています。
また、プライバシーリスクを低減するためにPETs利用で識別性をなくすことや、学習段階のデータについては、そのAI目的に本当に必要な粒度を検討することなど、先日noteでご紹介したシンガポールのAIガイドラインにも通じていて、日本でもこうした議論がされていくと良いなぁと思いました。

③ガバナンス体制・リスク管理の着眼点が実効的
多くの企業は、部署ごとにxxガバナンスを進めている上にさらに、AIガバナンスを建てつけることが多いと思われます。従業員への浸透もふまえ、その相互運用性や統合にまで触れられていること、また、利用前のPIAを出発点に影響評価や、利用状況の情報管理など、実務部門が足元で整備すべきことが項目にあがっている点が感銘しました。

④AIの実装時のリスク低減の着眼点が場面別に想起しやすい
AIの基礎的なテクノロジーや、関連知識に加え、自社内での開発、調達という導入過程で、どの場面で、どんなリスク低減を検討すべきか、わかりやすいと思いました。


なかなかイケてますよね!
そして、この知識体系もなんと6ヶ月ごとに見直すことを前提としているそうです。

うーん、箇条書きの知識体系の先を見たいなぁ、この中身の本文ないかなぁ?と思いつつ、コーフン冷めやらず夜中につぶやいたら、

なんと、ドイツ在住の石川先生ご降臨!!

え、見てる? 笑 ですと!!

もしや、と探したら、オンラインコースを発見!

1000ドル超ですが、受けたくなってしまいました(笑)

これは、運命かも( ^∀^)/♡

ではまた!


今日のDallE-3

お茶しながらAIガバナンスを語りあう🐩

この記事が気に入ったらサポートをしてみませんか?