見出し画像

3章|教育目的での生成AI使用の規制|ユネスコガイダンス要約

3.1 人間中心アプローチ

ユネスコは2021年に人工知能の倫理に関する勧告を発表し、教育や研究に関連する生成AIに必要な規範的枠組みを提供した。
AIの利用は包括的で公正かつ持続可能な未来の人間の能力の開発に奉仕すべきであると提唱している。ガバナンスの観点から、人間中心のアプローチには、人間の代理権、透明性、公共の説明責任を確保するための適切な規制が必要とされている。

2019年の「AIと教育の北京コンセンサス2019」も、教育の文脈でAIの利用が人間中心のアプローチにどのように影響するかを詳しく説明している。この合意は、教育におけるAI技術の利用は、持続可能な開発のための人間の能力を向上させ、生活、学習、仕事での効果的な人間と機械の協力を促進するべきであると確認した。また、これは、周縁化された人々をサポートし、不平等を解消し、言語と文化の多様性を促進するためのAIへの公平なアクセスを確保するためのさらなる行動を求めています。この合意は、教育におけるAIの政策立案において政府全体、部門間、多利害関係者アプローチを採用することを提案している。

UNESCOの「政策立案者のためのAIと教育ガイダンス」(2022)は、人間中心のアプローチが何を意味するかをさらに詳細に明確化し、教育における利点とリスクを検討し、以下を提言した。
(i) 身体障害を持つ学習者などの脆弱なグループに対する学習プログラムへの包括的なアクセスの実現
(ii) 個別化されたオープンな学習オプションのサポート
(iii) 学習におけるアクセス拡大と品質向上のためのデータベースに基づく提供と管理の改善
(iv) 学習プロセスの監視と教師への失敗リスクの警告、および(v) AIの倫理的かつ有意義な使用のための理解とスキルの開発

3.2 教育における生成AIの規制

ガイドでは、国レベルから教育機関まで、生成AIを規制していくステップが示されている。

Step 1: 国際的または地域的な一般データ保護規制(GDPR)を支持するか、国内のGDPRを策定する
EUのGDPRは2018年に制定されたものの一つであり、生成AIの提供業者による個人データの収集と処理を規制するための必要な法的枠組みを提供している。国連貿易開発会議(UNCTAD)のデータ保護とプライバシー法のワールドラインポータルによると、194カ国中137カ国がデータ保護とプライバシーを保護するための法律を制定している。
ただし各国の批准状況は不明な部分が多い。
Step 2: AIに関する政府全体の戦略を採用/改訂し資金を提供する(国レベル)
Step 3: AIの倫理に関する具体的な規制を固め、実施する(国レベル)
Step 4:
 AIが生成したコンテンツを規制するために、既存の著作権法を調整する。
Step 5:生成AIに関する規制の枠組みを精緻化する

ここまでは国レベルの対応で、以下が教育機関の対応となる。

Step 6: 教育と研究におけるGenAIの適切な利用のためのキャパシティ(統制力)構築
学校やその他の教育機関は、GenAIを含むAIが教育にもたらす潜在的なメリットとリスクを理解する(教員の)能力を開発する必要がある。学校やその他の教育機関は、生成AIを含むAIが教育にもたらす潜在的なメリットとリスクを理解する能力を開発する必要がある。AI ツールの導入は、(教員の)メリットとリスクの理解に基づいて初めて検証することができる
さらに、教師や研究者は、研修や継続的なコーチングなどを通じて、生成AIを適切に利用するための能力強化を支援される必要がある。シンガポールは、GPTモデルの専用リポジトリを含むAIガバメント・クラウド・クラスターを通じて、教育機関のAI能力開発のための専用プラットフォームを提供している(Ocampo, 2023)。

(補足)ここでのキャパシティcapacityは教員がAIツールを受け入れ、活用していく能力。

ステップ7:教育と研究に対する生成AIの長期的な影響を考える
現在の生成AIの影響はまだ始まったばかりであり、教育への影響はまだ十分に調査・理解されていない。
その一方で、生成AIや他のAIの強力なバージョンが開発、実装され続けている。しかし、知識の創造、伝達、検証、つまり教育と学習、カリキュラムの設計と評価、研究と著作権に対する生成AIの影響については、重大な疑問が残っている
ほとんどの国は、教育におけるGenAIの導入の初期段階にあり、長期的な影響はまだ理解されていない。人間中心のAI利用を確実にするためには、長期的な影響に関する公開討論と政策対話を早急に行うべきである。
政府、民間企業、その他のパートナーを巻き込んだ包括的な議論は、規制や政策の反復的な更新のための洞察やインプットを提供するのに役立つ。

抄訳。強調筆者。

3.3 生成AIに関する規制:重要な要素

3.3では、国レベル(3.3.1)から生成AIの提供会社(3.3.2)各団体や組織(3.3.3)、そして個人(3.3.4)がどのような規制を設けるべきかが示されている。

大学などの教育機関は、3.3.3の「団体ユーザー」に含まれる。

3.3.3. 機関ユーザー
機関ユーザーには、大学や学校のような教育当局や機関が含まれ、生成AIを採用すべきかどうか、どのタイプの生成AIツールを調達し、機関内に展開すべきかを決定する責任を持つ。
● 生成AIアルゴリズム、データ、アウトプットの機関監査: 生成AIツールが使用するアルゴリズムとデータ、およびそれらが生成するアウトプットを可能な限り監視するメカニズムを導入する。これには、定期的な監査と評価、ユーザーデータの保護、不適切なコンテンツの自動フィルタリングを含むべきである。
● 妥当性を検証し、利用者の幸福を守る: 生成AIシステムとアプリケーションを分類し、検証するための国家的な分類メカニズムを導入するか、制度的な方針を構築する。教育機関が採用する生成AIシステムが、当該地域の方針に沿ったものであることを確認する。機関が採用する生成AIシステムが、当該地域で承認された倫理的枠組みに沿ったものであり、機関の対象利用者、特に子どもや社会的弱者に予測可能な危害を与えないことを確認する。
● 長期的な影響を検討し、対処する: 長期的な影響を検討し、対処すること:教育において生成AIツールやコンテンツに依存することは、批判的思考力や創造性といった人間の能力の発達に大きな影響を与える可能性がある。このような潜在的な影響を評価し、対処する必要がある。こうした潜在的な影響を評価し、対処すべきである。
● 年齢の適切性:教育機関における生成AIの単独使用について、最低年齢制限の実施を検討する。

UNESCOガイドでは、組織が責任を持って規制しないといけない部分と、個人ユーザーの責任の部分を分けている。
ただ、個人の責任は利用規約を守るように、という指摘と、倫理的に使用しようということが示されるだけである。
機関として生成AIを導入するときに規定を作るのはもちろんだが、日本の大学でよくある、ガイドラインとして「ツールの使用は各自でしっかりやれ」「個人情報のデータ入力は個人の責任」というのがまかり通るのか、いや管理してない大学が悪いとなるのかはまだわからない。

3.3.4. 個人ユーザー
個人ユーザーには、インターネットと少なくとも1種類の生成AIツールにアクセスできる世界中のすべての人々が含まれる可能性がある。ここでの「個人ユーザー」という用語は、主に正式な教育機関の教師、研究者、学習者、または非正規の学習プログラムに参加する個人を指す。
● 生成AI利用規約の認識:サービス契約への署名や同意の表明に際し、利用者は契約に規定された利用規約や 利用規約の背景にある法令を遵守する義務を認識すべきである。
● 生成AIアプリケーションの倫理的利用: 利用者は責任を持って生成AIを利用し、他人の評判や合法的な権利を損なうような利用を避ける。
● 違法な生成AIアプリケーションの監視と報告: 違法な生成AIアプリケーションの監視と報告:1つまたは複数の規制に違反する生成AIアプリケーションを発見した場合、ユーザは政府の規制機関に通知する必要があります。

この記事が気に入ったらサポートをしてみませんか?