見出し画像

AIに関するアメリカの大統領命令の解説

2023年10月30日、米国のバイデン大統領は、AIの安全で責任ある開発に向けた連邦政府全体の協調的なアプローチを推進するため、安全、安心、信頼できる人工知能に関する大統領命令Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence)を発布しました。

この大統領命令は、安全性、セキュリティ、プライバシー、公平性、市民権などの主要な懸念に対処することを目指しており、同時にイノベーションと国際協力を促進するもので、米国がAIの機会を活用し、リスクを管理する分野でリードすることを目指しているとのことです。

この大統領命令で注目される点は、多くの連邦政府機関に、その管轄分野ごとに一定の期間内(例えば120日とか270日以内)でのガイドラインの公布を指示している点です。2024年春頃から米国からのガイドライン発行ラッシュが始まると予想されます。

また、  AIの安全性等を担う機関としてNISTが指名されています。日本でも同様の機関として、IPAの下に「AIセーフティーインスティテュート」が新設されるという記事が報道されています。

大統領命令の概要

大統領命令の主な内容は以下の通りとなっています。

  1. 米国政府との情報共有義務 国防生産法に基づいて、国家安全保障、国家経済安全保障、国家公衆衛生・安全に重大なリスクをもたらす基盤モデルを開発する企業に対し、モデルの訓練時に連邦政府に通知し、レッドチームによる安全性テストの結果やその他の重要の情報を共有することを義務付ける。

  2. AIの安全性とセキュリティの新基準の開発:米国国立標準技術研究所(NIST)は、公開前のAIの安全性を保証するための厳格なレッドチームテストの基準を設定する。国土安全保障省は、これらの基準を重要インフラ分野に適用し、AI安全・セキュリティ委員会を設立し、また、エネルギー省と国土安全保障省は、重要インフラに対するAIシステムの脅威や、化学、生物、放射線、核、サイバーセキュリティのリスクにも対処する。

  3. アメリカ人のプライバシー保護:米国人のプライバシーをよりよく保護するため、大統領は、すべての米国人、特に子供を保護するための超党派のデータプライバシー法を可決するよう議会に要請し、プライバシーを保護する技術に対する連邦支援の優先や、これらの技術の有効性を評価するための連邦機関向けガイドラインの策定を指示する。

  4. 公平性と市民権の進歩:住宅、医療、司法などの分野でAIが差別を悪化させないようにするための行動を指示する。また、AIによるアルゴリズム差別や刑事司法システムにおける公平性への対処を指示する。

  5. 消費者、患者、学生の保護:医療におけるAIの責任ある使用と 、安価で生命を救う薬剤の開発を促進する。保健社会福祉省はまた、AIに関わる危害や安全でない医療行為の報告を受け、是正するための安全プログラムを確立する。学校での個別指導など、AIを活用した教育ツールを導入する教育者を支援するリソースを作成する。

  6. 労働者の支援:職場でのAIに関連するリスク、例えば仕事の置換やバイアス、を軽減するために、労働者に利益をもたらす原則とベストプラクティスの開発する。

  7. イノベーションと競争の促進:国立AI研究リソースのパイロットプログラムの開始や、小規模開発者への技術支援とリソースへのアクセス、AI専門家のビザ基準を合理化する。

  8. 国際協調:AIに関して協力するための二国間、多国間、マルチステークホルダーとの関わりを拡大する。

  9. 政府による責任ある効果的なAI利用の確保:政府機関は、AIの安全、安心、信頼できる開発と使用をサポートするためのガイドラインを策定し、行動を起こす。

米国と日本では状況が違うので、大統領命令がそのまま日本に当てはまるわけではもちろんないですが、参考になる点はあります。この大統領命令において、個人的に注目している点は、以下の2点です。
・法律文書ということもありAIに関するさまざまな定義がされている。
・今後、さまざまな連邦機関からガイドラインが作成・公表されることになっている。

AIに関する定義

AIと定義 made by DALL-E3

法律家しか興味がないかもしれませんが、定義というのは法律文書では重要です。大統領命令ではAIに関する用語として、第3条で定義がされています。たくさんあるので私の興味があるものだけピックアップしてみました。

(b)「人工知能」または「AI」という用語は、15 U.S.C. 9401(3)に規定される意味を持つ。すなわち、人間が定義した所定の目的に対して、現実環境または仮想環境に影響を与える予測、推奨、または決定を行うことができる機械ベースのシステムである。人工知能システムは、機械および人間ベースの入力を使用して現実環境および仮想環境を認識し、自動化された方法で分析を通じてそのような認識をモデルに抽象化し、モデルの推論を使用して情報や行動の選択肢を策定する。

(c)「AIモデル」とは、AI技術を実装し、所定の入力セットから出力を生成するために計算、統計、または機械学習の技術を使用する情報システムの構成要素を意味する。

(d) 「AI レッドチーム」とは、AI システムの欠陥や脆弱性を発見するために、多くの場合、管理された環境で、AIの開発者と協力して行われる、構造化されたテストの取り組みを意味する。人工知能のレッド・チームは、AIシステムからの有害または差別的な出力、予期しないまたは望ましくないシステムの動作、制限、またはシステムの誤用に関連する潜在的リスクなどの欠陥や脆弱性を特定するために、敵対的な手法を採用する専門の「レッド・チーム」によって実施されることが最も多い。

(e)「AIシステム」とは、データシステム、ソフトウェア、ハードウェア、アプリケーション、ツール、またはユーティリティの全部または一部がAIを使用して動作するものをいう。

(p)「ジェネレーティブAI」とは、画像、動画、音声、テキスト、その他のデジタルコンテンツを生成するために、入力データの構造や特性をエミュレートするAIモデルを意味する。

(t)「機械学習」という用語は、データに基づいてタスクのパフォーマンスを向上させるためにAIアルゴリズムを訓練するために使用できる一連の技術を意味する。

関係者で議論したり報告書を作成する場合、「AIの定義」が最初に問題になることも多いです。ビジネスでは、ここをスルーできるのでしょうが、法規制をするとなると、規制対象を明確にする必要があるため、 AIの定義は重要です。AIの定義はAI専門家でも見解が分かれている難しい問題なので、日本では、明確にしないままで議論することが多いですが、法規制をするとなれば、きちんと議論して、定義する必要があると思います。

今後策定予定のガイドライン


'The Guidelines of AI in the United States' made by DALL-E3

今後米国で策定・公表されるガイドライン等を整理すると以下のとおりです。

  1.  AIの安全性とセキュリティ基準

    • AIシステムの安全性、セキュリティ、信頼性を評価するための基準

  2. プライバシー保護ガイドライン

    • 連邦機関によるプライバシー保護技術の有効性評価のためのガイドライン

  3. 公平性と市民権

    • AIアルゴリズムが差別を悪化させないようにするための、家主、連邦政府福祉プログラム、連邦政府契約者向けのガイドライン

    • 刑事司法システムでのAIの使用に関するベストプラクティス(判決、仮釈放、前裁判釈放、リスク評価を含む)

  4. 消費者、患者、学生の保護

    • 医療におけるAI関連の危害や危険への対処を目的とした安全プログラム

  5. 労働力の保護

    • AIによる仕事の置換、労働基準、職場の公平性、健康、安全、データ収集への影響に対処する原則とベストプラクティス

  6. 政府によるAIの使用に関するガイドライン

    • 個人の権利と公共の安全を保護しながら、AIの使用に関する連邦機関向けのガイドライン

これらのガイドラインは日本企業にも影響があるものもあるでしょうし、影響がないとしても日本で同種のガイドラインが作成される際には参考になるものと思われます。

おわりに

拙著の「生成 AIの法的リスクと対策」の最初の方に各国のAIの政策動向を簡単に記載していますので興味のある方はご覧ください。








この記事が気に入ったらサポートをしてみませんか?