見出し画像

ユネスコ「教育・研究における生成AIガイダンス」(2023)

ユネスコが2023年9月に公開した「教育・研究における生成AIガイダンス」の抜粋仮翻訳です。前書きや謝辞、表、リファレンスなどは訳出していないので、原文をご参照ください。以下、原文の翻訳です。


裏表紙

本ガイダンスは、生成人工知能(生成AI)が、教員、学習者、研究者に真に利益をもたらし、力を与えるツールとなるよう、適切な規制、政策、人材育成プログラムの立案を支援することを目的としている。本書は、生成AIが使用するAI技術を説明し、特にオープンソースライセンスのもとで一般に公開されているGPTモデルのリストを作成する。また、EdGPT(教育目的のために特定のデータで訓練された生成AIモデル)の出現に関する議論を開始する。さらに、デジタル貧困の深刻化から、意見の均質化、より深いディープフェイクから著作権の問題まで、生成AIをめぐる主要な論争のいくつかを要約している。

人間主義的なビジョンに基づき、ガイダンスは、データ・プライバシーの保護を義務付けること、生成AIプラットフォームとの独立した会話に年齢制限を設けることなど、生成AIツールの規制への重要なステップを提案している。教育や研究におけるツールの適切な使用を導くために、このガイダンスは、倫理的検証と教育学的設計プロセスに対する人間-主体と年齢に応じたアプローチを提案する。

要約

生成AIの利用における人間中心のアプローチに向けて

一般に利用可能な生成AIツールは急速に台頭しており、(学習と改善を何度も繰り返す)反復バージョンのリリースは各国の規制枠組みの適応を上回っている。ほとんどの国で生成AIに関する国内規制がないため、ユーザーのデータプライバシーは保護されず、教育機関はツールを検証する準備がほとんどできていない。

このガイダンスは、人間主義的なビジョンに基づき、データ・プライバシーの保護を義務付け、生成AIプラットフォームとの独立した会話に年齢制限を設けるなど、生成AIツールの規制への重要なステップを提案する。教育や研究におけるツールの適切な使用を導くために、このガイダンスは、倫理的検証や教育的設計のプロセスに対して、人間-主体および年齢に適したアプローチを提案する。

はじめに

2022年後半にリリースされたChatGPTは、一般に広く公開された最初の使いやすい生成人工知能(生成AI)ツールであり*1、その後、反復的により洗練されたバージョンがリリースされ、世界中に衝撃を与え、生成AIモデル開発の分野で地位を確立しようとする大手テクノロジー企業間の競争に拍車をかけている*2。

世界中で、教育界における当初の懸念は、ChatGPTや類似の生成AIツールが学生によって課題のカンニングに利用され、学習評価、認証、資格の価値が損なわれることであった(Anders, 2023)。ChatGPTの使用を禁止する教育機関がある一方で、生成AIの登場を慎重に歓迎する教育機関もあった(Tlili, 2023)。例えば、多くの学校や大学は、「その使用を禁止しようとするのではなく、生徒や職員が生成AIツールを効果的、倫理的かつ透明性をもって使用できるよう支援する必要がある」(ラッセル・グループ)と考え、進歩的なアプローチを採用している。このアプローチは、生成AIが広く利用可能であり、より洗練されたものになる可能性が高く、教育にとって特定のネガティブな可能性と独自のポジティブな可能性の両方を持っていることを認めている。

実際、生成AIには無数の可能性がある。生成AIは、情報処理と、人間の思考を象徴するあらゆる主要な表現におけるアウトプットの提示を自動化することができる。半完成品の知識製品を提供することで、最終的なアウトプットの提供を可能にする。人間を低次の思考スキルのいくつかのカテゴリーから解放することで、この新世代のAIツールは、人間の知能と学習をどのように理解するかに重大な影響を与えるかもしれない。

しかし、生成AIはまた、安全性、データプライバシー、著作権、操作といった問題に関連する複数の直接的な懸念も提起している。これらの中には、生成AIによってさらに悪化した人工知能に関連する広範なリスクもあれば、この最新世代のツールによって新たに浮上したものもある。現在、これらの問題や懸念のそれぞれを十分に理解し、対処することが急務となっている。

本ガイダンスは、この緊急のニーズに応えるためのものである。しかし、教育のための生成AIに関するテーマ別のガイダンスは、生成AIが教育の根本的な課題を解決するという主張として理解されるべきではない。メディアは大げさに報じているが、生成AIだけで世界中の教育システムが直面している問題を解決できる可能性は低い。長年の教育問題に対応する上で重要なのは、社会が直面する根本的な課題に対する効果的な解決策を決定するのは、テクノロジーではなく、人間の能力と集団行動であるという考えを堅持することである。

したがって、本ガイダンスは、生成AIが教員、学習者、研究者に真に利益をもたらし、力を与えるツールとなるよう、適切な規制、政策、人材育成プログラムの立案を支援することを目的としている。「AI倫理に関するユネスコ勧告」に基づき、本ガイダンスは、ヒューマン・エージェンシー、インクルージョン、公平性、男女平等、文化的・言語的多様性、複数の意見や表現を促進する人間中心のアプローチに軸足を置いている。

本ガイダンスでは、まず生成AIとは何か、どのように機能するのかについて考察し、利用可能な多様な技術とモデルを提示する(セクション1)。続いて、人間中心のアプローチ、すなわち倫理的で安全かつ公平で有意義な利用を保証するアプローチに基づいて生成AIを規制しようとする場合に検討すべきステップと重要な要素について議論する(セクション3)。セクション4では、教育や研究における生成AIの利用を規制するための首尾一貫した包摂的な政策枠組みを開発するために取り得る方策を提案し、セクション5では、カリキュラム設計、教育、学習、研究活動において生成AIを創造的に利用する可能性について考察する。セクション6では、教育と研究における生成AIの長期的な意味合いについて考察し、ガイダンスを締めくくる。

1. 生成AIとは何か、どのように機能するのか?

1.1 生成AIとは?

生成AIとは、自然言語会話インターフェースで書かれたプロンプトに応答して自動的にコンテンツを生成する人工知能(AI)技術である。単に既存のウェブページをキュレーションするのではなく、既存のコンテンツを利用することで、生成AIは実際に新しいコンテンツを生成する。コンテンツは、自然言語で書かれたテキスト、画像(写真からデジタル絵画や漫画を含む)、ビデオ、音楽、ソフトウェアコードなど、人間の思考を象徴するあらゆる表現形式をとることができる。

生成AIは、ウェブページ、ソーシャルメディア上の会話、その他のオンラインメディアから収集したデータを使って学習される。生成AIは、取り込んだデータ内の単語、ピクセル、その他の要素の分布を統計的に分析し、共通のパターン(例えば、どの単語が通常どの単語の後に続くか)を識別して繰り返すことによってコンテンツを生成する。

生成AIは新しいコンテンツを生み出すことはできるが、言語を支える現実世界の対象や社会的関係を理解していないため、新しいアイデアや現実世界の課題に対する解決策を生み出すことはできない。さらに、その流暢で印象的な出力にもかかわらず、生成AIは正確さを信頼できない。

実際、ChatGPTの提供者でさえ、「ChatGPTのようなツールは、しばしば合理的に聞こえる答えを生成することができるが、正確であることを信頼することはできない」(OpenAI, 2023)と認めている。ほとんどの場合、ユーザーが問題のトピックについて確かな知識を持っていない限り、間違いに気づかないだろう。

1.2 生成AIの仕組み

生成AIの背後にある特定の技術は、機械学習(ML)と呼ばれるAI技術のファミリーの一部であり、データから継続的かつ自動的にパフォーマンスを向上させることを可能にするアルゴリズムを使用する。顔認識へのAIの利用など、近年見られるAIの進歩の多くをもたらしたMLのタイプは、人工ニューラルネットワーク(ANN)として知られており、人間の脳の働きとニューロン間のシナプス結合にヒントを得ている。ANNには多くの種類がある。

テキスト生成AI技術も画像生成AI技術も、数年前から研究者が利用できるようになった一連のAI技術に基づいている*1。例えば、ChatGPTはGenerative Pre-trained Transformer(GPT)を使用し、画像生成AIは通常、敵対的生成ネットワーク(Generative Adversarial Networks、略してGAN)と呼ばれるものを使用する(表1参照)*3。

(訳註 敵対的生成ネットワークはデータから特徴を学習することで、実在しないデータを生成する仕組み)

1.2.1. テキスト生成AIモデルの仕組み

テキスト生成AI技術も画像生成AI技術も、数年前から研究者が利用できるようになった一連のAI技術に基づいている*1。例えば、ChatGPTはGenerative Pre-trained Transformer(GPT)を使用し、画像生成AIは通常、Generative Adversarial Networks(GAN)と呼ばれるものを使用する(表1参照)*3。

ChatGPTはOpenAIが開発したGPT-3をベースに構築されている。これは彼らのGPTの3回目の反復で、最初のGPTは2018年に発表され、最新のGPT-4は2023年3月に発表された(表2参照)。各OpenAI GPTは、AIアーキテクチャ、訓練方法、最適化技術の進歩を通じて、以前のGPTを繰り返し改善してきた。その継続的な進歩の1つのよく知られた側面は、指数関数的に増加する「パラメータ」を訓練するために、増大するデータを使用することである。

パラメータは、GPTのパフォーマンスを微調整するために調整できる、比喩的なノブ(knob)と考えることができる。モデルの「ウェイト」は、モデルがどのように入力を処理し、出力を生成するかを決定する数値パラメータである。

AIアーキテクチャーとトレーニング方法の最適化の進歩に加え、このような迅速な反復が可能になったのは、膨大なデータ*5と、大手企業が利用できるコンピューティング能力の向上によるものだ。2012年以降、生成AIモデルのトレーニングに使用されるコンピューティング能力は、3~4カ月ごとに倍増している。これに比べ、ムーアの法則では2年で倍増している(OpenAI,2018; Stanford University, 2019)。

GPTがトレーニングされた後、プロンプトに対するテキスト応答を生成するには、以下のステップを踏む。

  1. プロンプトは、GPTに入力されるより小さな単位(トークンと呼ばれる)に分解される。

  2. GPTは統計的なパターンを使って、プロンプトに対する一貫した応答を形成する可能性のある単語やフレーズを予測する。
    ・GPTは、あらかじめ構築された大規模なデータモデル(インターネットなどからスクレイピングされたテキストで構成される)の中で、よく共起する単語やフレーズのパターンを特定する。
    ・これらのパターンを使って、GPTは特定の単語やフレーズが特定の文脈に現れる確率を推定する。
    ・GPTは、ランダムな予測から始めて、これらの推定確率を使用して、応答で次に出現しそうな単語やフレーズを予測する。

  3. 予測された語句は、読みやすいテキストに変換される。

  4. 読みやすいテキストは「ガードレール」と呼ばれるフィルターにかけられ、不快な内容が取り除かれる。

  5. 回答が完成するまで、ステップ2から4が繰り返される。
    応答は、トークンの最大制限に達するか、または事前に定義された停止基準を満たしたときに終了したとみなされる。

  6. 応答は、書式設定、句読点、その他の機能強化(「Sure」、「Certainly」、「I'm sorry」など、人間が使うような単語で応答を始めるなど)を適用して読みやすさを向上させるために後処理される。

GPTとそのテキスト自動生成機能は2018年から研究者が利用できるようになっていたが、ChatGPTのローンチが斬新だったのは、使いやすいインターフェイスを介して無料でアクセスできることであり、それはインターネットにアクセスできる人なら誰でもツールを探索できることを意味していた。ChatGPTのローンチは世界中に衝撃を与え、瞬く間に他のグローバルなテック企業がキャッチアップすることになり、数多くのスタートアップ企業と並んで、独自の同様のシステムをローンチするか、その上に新しいツールを構築することになった。

2023年7月までに、ChatGPTに代わるものとして以下のようなものがあった。

・Alpaca: スタンフォード大学のMeta'sLlamaを微調整したもので、LLMの虚偽情報、社会的固定観念、有害言語に対処することを目的としている*7
・Bard: GoogleのLaMDAとPaLM 2システムをベースにしたLLMで、リアルタイムでインターネットにアクセスできるため、最新の情報を提供することができる*8
・Chatsonic*9: Write sonic社製で、ChatGPTをベースにしつつ、データを直接クロール
・Ernie*10(別名Wenxin Yiyan 文心一言): 百度のバイリンガルLLMで、現在も開発中
・Hugging Chat*11: ハギング・フェイスは、開発、トレーニング、配備を通じて倫理と透明性を重視。さらに、モデルの訓練に使われたデータはすべてオープンソース
・Jasper*12: ツールとAPIのスイートで、例えば、ユーザーの特定の好みのスタイルで書くように訓練することができる。画像を生成することもできる
・Llama*13: 新しいアプローチをテストし、他の研究者の研究を検証し、新しいユースケースを探求するために、より少ないコンピューティングパワーとより少ないリソースを必要とするMeta社のオープンソースのLLM
・Open Assistant*14: 十分な専門知識があれば誰でも独自のLLMを開発できるように設計されたオープンソースのアプローチ。ボランティアによって管理されたトレーニングデータに基づいて構築されている
・(通义千问)*15: 英語または中国語でプロンプトに応答できるアリババのLLM
アリババのビジネスツール群に統合されつつある。
・YouChat*16: リアルタイム検索機能を組み込んだLLMで、より正確で信頼性の高い結果を生成するために、追加のコンテキストとインサイトを提供

これらのほとんどは(一定の範囲内で)無料で使用でき、オープンソースのものもある。これらのLLMのひとつをベースにした他の製品も数多く発売されている。

・ChatPDF*17: 提出された PDF 文書について要約し、質問に答える
・Elicit*18: 研究者のワークフローの一部を自動化し、関連論文を特定し、重要な情報を要約
・Perplexity*19: ニーズに合わせた迅速で正確な回答を求める人々のための「ナレッジ・ハブ」を提供

同様に、LLMベースのツールは、ウェブブラウザなどの他の製品にも組み込まれている。例えば、ChatGPTをベースにしたChromeブラウザの拡張機能には以下のようなものがある。

・WebChatGPT20: ChatGPTがインターネットにアクセスすることで、より正確で最新の会話が可能
・Compose AI*21: 電子メールなどの文章を自動補完
・TeamSmart AI*22:「バーチャルアシスタントチーム」を提供
・Wiseone*23: オンライン情報を簡素化

さらに、ChatGPTは検索エンジンに組み込まれ24、生産性向上ツール(Microsoft WordやExcelなど)の大規模なポートフォリオに導入されており、世界中のオフィスや教育機関でさらに利用しやすくなっている(MurphyKelly, 2023)。

最後に、画像生成AIへの興味深い移行として、OpenAIの最新のGPTであるGPT-4は、プロンプトにテキストだけでなく画像も受け入れることができる。この意味では、マルチモーダルである。したがって、「大規模言語モデル」(LLM)という名称は適切でなくなってきているという意見もあり、スタンフォード大学の研究者が「基礎モデル」という用語を提唱しているのもそのためである(Bommasani et al.、2021)。この代替案はまだ広く採用されていない。

1.2.2. 画像生成AIモデルの仕組み

画像生成AIと音楽生成AIは通常、Generative Adversarial Networks(GANs)として知られる異なるタイプのANNを使用する。GANは「生成器」と「識別器」の2つの部分(2つの「敵対者」)を持つ。画像GANの場合、生成器はプロンプトに応答してランダムな画像を生成し、識別器はこの生成された画像と実際の画像を区別しようとする。その後、ジェネレーターは識別器の結果を使用してパラメータを調整し、別の画像を作成する。

このプロセスは、おそらく何千回と繰り返され、ジェネレーターはよりリアルな画像を生成し、識別器は実際の画像と区別できなくなる。例えば、何千枚もの風景写真のデータセットで学習させたGANが成功すると、現実の写真とほとんど見分けがつかないような、新しいが非現実的な風景画像が生成されるかもしれない。一方、ポピュラー音楽(あるいは1人のアーティストの音楽)のデータセットで学習させたGANは、元の音楽の構造と複雑さに従った新しい音楽を生成するかもしれない。

2023年7月現在、利用可能な画像生成AIモデルには以下のものがあり、いずれもテキストプロンプトから画像を生成する。一定の範囲内であれば、ほとんどが無料で利用できる。

・Craiyon*25: 以前は DALL-E mini として知られていた
・DALL-E 2*26:OpenAI の画像生成AI ツール
・Dream Studio*27: Stable Diffusion の画像生成AI ツール
・Fotor*28: 様々な画像編集ツールに生成AIを搭載
・Midjourney*29: 独立した画像生成AIツール

簡単にアクセスできる動画生成AIの例としては、以下のようなものがある。

・Elai*32: プレゼンテーション、ウェブサイト、テキストを動画に変換可能
・GliaCloud*33: ニュースコンテンツ、ソーシャルメディア投稿、スポーツのライブイベント、統計データから動画を生成
・Pictory*34: 長編コンテンツから短編動画を自動作成
・Runway*35: さまざまなビデオ(および画像)生成・編集ツールを提供

最後に、アクセスしやすい音楽生成AIの例をいくつか紹介する。

・Aiva*36: パーソナライズされたサウンドトラックを自動作成
・Boomy*37・Soundraw38・Voicemod39: 任意のテキストから曲を生成

1.3 望みの出力を生成するためのプロンプト・エンジニアリング

生成AIの使用は、質問や他のプロンプトを入力するのと同じくらい簡単だが、現実には、ユーザーが望む出力を正確に得ることはまだ簡単ではない。例えば、米国コロラド州フェアで入賞した画期的なAI画像「Théâtre D'opéra Spatial」は、最終的な提出物を生成するために、何週間もかけてプロンプトを書き、何百枚もの画像を微調整した(Roose, 2022)。

テキスト生成AIのための効果的なプロンプトを書くという同様の課題により、プロンプト・エンジニアリングの求人が求人サイトに掲載される機会が増えている(Popli, 2023)。「プロンプト・エンジニアリング」とは、ユーザーの希望する意図により近い生成AI出力を生成するために入力を構成するプロセスとテクニックのことである。

プロンプト・エンジニアリングが最も成功するのは、プロンプトが特定の問題を中心とした首尾一貫した推論の連鎖、あるいは論理的な順序による思考の連鎖を明確にしている場合である。具体的な推奨事項は以下の通り。

・複雑であいまいな表現を避け、理解しやすい単純明快な表現を使用する。
・望ましい回答や作成される記入の形式を説明する例を含める。
・関連性のある意味のある回答を生成するために重要な文脈を含める。
・必要に応じて、さまざまなバリエーションを試しながら、改良と反復を行う。
・不適切、偏見、または有害な内容を生成する可能性のあるプロンプトを避け、倫理的であること。

また、生成AIの出力は、批判的な評価なしには信頼できないということを即座に認識することも重要である。OpenAI自身が自らのもっとも洗練されたGPTについて書いているように。*40

生成AIのアウトプットの質を考慮すると、大規模な、あるいは利害関係の大きい採用のためにツールを検証する前に、厳密なユーザーテストと性能評価を実施すべきである。そのような演習は、ユーザーが生成AIに出力を求めるタスクのタイプに最も関連するパフォーマンス指標で設計されるべきである。

例えば、数学の問題を解くためには、生成AIツールがどれくらいの頻度で正しい答えを出すかを定量化するための主な指標として「正確さ」が使われるかもしれない。繊細な質問に答えるためには、パフォーマンスを測定するための主な指標は「回答率」(生成AIが質問に直接答える頻度)かもしれない。コード生成の場合、測定基準は「直接実行可能な生成コードの割合」(生成されたコードがプログラミング環境で直接実行され、単体テストに合格するかどうか)かもしれない。視覚的推論の場合、測定基準は「完全一致」(生成された視覚的オブジェクトが真実と完全に一致するかどうか)かもしれない(Chen, Zaharia, and Zou, 2023)。

要約すると、表面的なレベルでは、生成AIは使いやすい。しかし、より洗練された出力には熟練した人間の入力が必要であり、使用する前に批判的に評価されなければならない。

その能力にもかかわらず、GPT-4には以前のGPTモデルと同様の限界がある。最も重要なことは、まだ完全には信頼できない(事実を「幻覚」し、推論エラーを起こす)ことである。言語モデルの出力を使用する場合、特に利害の大きい文脈では、特定の使用ケースのニーズに合った正確なプロトコル(人間によるレビュー、追加の文脈による根拠付け、利害の大きい使用を完全に避けるなど)を用いて、細心の注意を払う必要がある」。

注意点

生成AIは、教員や研究者が仕事をサポートするために有用なテキストやその他のアウトプットを生成するのに役立つかもしれないが、それは必ずしも単純なプロセスではない。望ましいアウトプットが得られるまで、プロンプトを何度も繰り返す必要がある。心配なのは、若い学習者は教員よりも専門的でないため、表面的で不正確、あるいは有害な生成AIの出力を、知らず知らずのうちに、批判的な関与なしに受け入れてしまう可能性があることだ。

教育と研究への示唆

1.4 新たなEdGPTとその意味合い

生成AIモデルは、より専門的なモデルやドメインに特化したモデルを開発するための基盤や出発点として機能することができるため、GPTは「基盤モデル」と改名されるべきだと提唱する研究者もいる(Bommasani et al.、2021)。

教育分野では、開発者と研究者が基礎モデルを微調整して「EdGPT」を開発し始めた*41。EdGPTモデルは教育目的のために特定のデータで学習される。言い換えれば、EdGPTは、大量の一般的な学習データから導き出されたモデルを、より少量の質の高い、ドメイン固有の教育データで改良することを目的としている。

このことは、EdGPTが4.3節で挙げた変容の達成を支援する幅を広げる可能性がある。例えば、カリキュラムの共同設計をターゲットとしたEdGPTモデルによって、教育者と学習者は、効果的な教育学的アプローチや特定の学習者のための特定のカリキュラム目標やチャレンジレベルに密接に沿ったレッスンプラン、クイズ、インタラクティブなアクティビティなどの適切な教材を作成できるようになるかもしれない。
同様に、1:1の言語スキルコーチの文脈では、特定の言語に適したテキストで洗練された基礎モデルは、練習のための模範的な文章、段落、会話を生成するために使用されるかもしれない。

学習者がモデルと相互作用することで、学習者にとって適切なレベルの、適切で文法的に正確な文章が生成される。
理論的には、EdGPTモデルの出力は、標準的なGPTよりも一般的な偏りやその他の好ましくない内容を含んでいない可能性があるが、それでもエラーが発生する可能性がある。基礎となる生成AIのモデルやアプローチが大きく変わらない限り、EdGPTは依然としてエラーを発生させる可能性があり、授業計画や教授法の提案など他の点では限界があることに注意することが重要である。

したがって、EdGPTの主な利用者、特に教員と学習者は、どのようなアウトプットに対しても批判的な視点を持つ必要がある。

現在、GPT を教育により的を絞って利用するための基盤モデルの改良は初期段階にある。既存の例としては、華東師範大学(East China Normal University)によって開発された、教育と学習のためのサービスを提供する基盤モデルであるEduChatがあり、そのコード、データ、パラメーターはオープンソースとして共有されている*42。もう一つの例は、TAL Education Groupが開発しているMathGPTである。TAL Education Groupは、数学関連の問題解決と世界中の受講者への講義に重点を置くLLMである*43。

しかし、大きな進歩が可能になる前に、教科知識の追加や偏りの排除だけでなく、関連する学習方法に関する知識を追加し、これをアルゴリズムやモデルの設計にどのように反映させることができるかを通じて、基礎モデルを洗練させる努力が不可欠である。課題は、EdGPTモデルが教科の知識を超えて、生徒中心の教育法や教員と生徒の積極的な相互作用もターゲットにできる範囲を見極めることだ。

さらなる課題は、EdGPTに情報を提供するために、学習者や教員のデータを倫理的にどの程度まで収集し、使用できるかを見極めることである。最後に、EdGPTが生徒の人権を損なったり、教員の権限を奪ったりしないことを確認するためのしっかりとした調査も必要である。

2.生成AIをめぐる論争と教育への影響

生成AIとは何か、どのように機能するのかについて前述したが、このセクションでは、すべての生成AIシステムが提起する論争と倫理的リスクを検証し、教育への影響のいくつかを考察する。

2.1 デジタル貧困の深刻化

先に述べたように、生成AIは、AIアーキテクチャとトレーニング方法における反復的な革新に加えて、膨大な量のデータと大規模なコンピューティングパワーに依存している。つまり、生成AIを創造し、コントロールする可能性は、ほとんどの企業やほとんどの国、特にグローバル・サウス(南半球)の国々には手が届かないということだ。

データへのアクセスが国の経済発展や個人のデジタル機会にとってますます不可欠になるにつれ、十分なデータにアクセスできない国や人々は「データ貧困」の状況に置かれることになる(Marwala,2023)。コンピューティング・パワーへのアクセスについても状況は同様である。

技術先進国や地域における生成AIの急速な普及は、データの生成と処理を指数関数的に加速させ、同時にAI富の北半球への集中を強めている。その直接的な結果として、データに乏しい地域はさらに排除され、GPTモデルに組み込まれた標準によって植民地化される長期的なリスクにさらされている。

現在のChatGPTモデルは、グローバル・ノースの価値観や規範を反映するオンライン・ユーザーからのデータで訓練されているため、グローバル・サウスの多くの地域にあるデータに乏しいコミュニティや、グローバル・ノースのより恵まれないコミュニティにおいて、ローカルに関連するAIアルゴリズムには適していない。

研究者、教員、学習者は、生成AIトレーニングモデルに埋め込まれた価値観、文化的基準、社会的慣習を批判的にとらえるべきである。政策立案者は、生成AIモデルのトレーニングや管理における格差の拡大がもたらす不公平の悪化に気づき、対策を講じるべきである。

教育と研究への示唆

2.2 国の規制適応を上回る

支配的な生成AIプロバイダーはまた、そのシステムが厳格な独立した学術的レビューの対象となることを認めていないとして批判されている(Dwivedi et al.)。企業の生成AIの基盤技術は、企業の知的財産として保護される傾向にある。一方、生成AIの利用を始めている企業の多くは、システムのセキュリティを維持することがますます困難になってきていると感じている(Lin,2023)。

さらに、AI業界自身から規制を求める声が上がっているにもかかわらず*45 、生成AIを含むすべてのAIの作成と使用に関する法律の起草は、開発の急速なペースにしばしば遅れをとっている。このことは、法的・倫理的問題を理解し管理する上で、国や地方の機関が経験する課題の一因となっている*46。

生成AIは特定のタスクを遂行する人間の能力を補強するかもしれないが、生成AIを推進する企業に対する民主的な管理は限られている。このことは、特に、現地の機関や個人に関するデータや、その国の領土内で生成されたデータを含む、国内データへのアクセスやその使用に関する規制の問題を提起する。公共財としての生成AIのガバナンスを確保するため、急増する生成AIの波を地元政府機関がある程度コントロールできるよう、適切な法整備が必要である。

研究者、教員、学習者は、生成AIの国内機関や個人の所有権、国内利用者の権利を保護するための適切な規制がないことを認識し、生成AIによって引き起こされる法規制の問題に対応すべきである。

教育と研究への示唆

2.3 コンテンツの無断使用

前述したように、生成AIモデルは大量のデータ(テキスト、サウンド、コード、画像など)から構築され、多くの場合、インターネットからスクレイピングされ、通常は所有者の許可なく使用される。多くの画像生成AIシステムといくつかのコード生成AIシステムは、結果として知的財産権を侵害していると非難されてきた。本稿執筆時点で、この問題に関連する国際的な訴訟事件がいくつか進行中である。

さらに、GPTは欧州連合(EU)の一般データ保護規則(GDPR)などの法律、特に人々の忘れられる権利に抵触する可能性があると指摘する声もある。というのも、一度訓練されたGPTモデルから誰かのデータ(またはそのデータの結果)を削除することは今のところ不可能だからだ。

2.4 出力生成に使われる説明不可能なモデル

人工ニューラルネット(ANN)は通常「ブラックボックス」であり、その内部構造を検査することはできないと、長い間認識されてきた。その結果、ANNは「透明」でも「説明可能」でもなく、その出力がどのように決定されたかを確かめることはできない。

使用されているアルゴリズムを含む全体的なアプローチは一般的に説明可能であるが、特定のモデルとそのパラメータ(モデルのウェイトを含む)は検査できないため、生成された特定の出力を説明することはできない。GPT-4のようなモデルには何十億ものパラメータ/ウェイトがあり(表2参照)、モデルが出力を生成するために使用する学習されたパターンを保持するのは、ウェイトの集合体である。ANN(表1)ではパラメータ/ウェイトは透明ではないため、これらのモデルによって特定の出力が生成される正確な方法を説明することはできない。

生成AIの透明性と説明可能性の欠如は、生成AIがますます複雑になるにつれてますます問題になっており(表2参照)、しばしば予期しない、あるいは望ましくない結果を生み出す。加えて、生成AIモデルは学習データに存在するバイアスを継承し、永続させるが、モデルの非透明性を考慮すると、これを検出し、対処することは難しい。最後に、この不透明性は、生成AIをめぐる信頼問題の主な原因でもある(Nazaretskyet al.) 生成AIシステムがどのようにして特定のアウトプットに到達したかをユーザーが理解していない場合、ユーザーはそれを採用したり使用したりすることに積極的になれない可能性が高い(Nazaretsky et al.)。

・研究者、教員、学習者はデータ所有者の権利を知る必要があり、使用している生成AIツールが既存の規制に反していないか確認する必要がある。
・また、研究者、教員、学習者は、生成AIで作成された画像やコードが他人の知的財産権を侵害する可能性があること、また、作成しインターネット上で共有した画像、音声、コードが他の生成AIによって悪用される可能性があることを認識する必要がある。

教育と研究への影響

研究者、教員、学習者は、生成AIシステムがブラックボックスとして動作し、特定のコンテンツがなぜ作成されたかを知ることは、不可能ではないにせよ、結果的に困難であることを認識すべきである。
出力がどのように生成されるのかの説明がないため、生成AIシステムで設計されたパラメータによって定義されたロジックにユーザーを閉じ込めてしまいがちである。
これらのパラメータは、暗黙のうちに生成されるコンテンツにバイアスをかける特定の文化的・商業的価値観や規範を反映している可能性がある。

教育と研究への示唆

2.5 インターネットを汚染するAI生成コンテンツ

GPTの学習データは一般的にインターネットから取得され、差別的な言葉やその他の容認できない言葉を含むことがあまりにも多いため、開発者はGPTの出力が攻撃的であったり非倫理的であったりするのを防ぐために「ガードレール」と呼ばれるものを実装しなければならなかった。しかし、厳格な規制や効果的な監視メカニズムがないため、生成AIによって生成された偏った教材はますますインターネット全体に広がり、世界中のほとんどの学習者にとってのコンテンツや知識の主要な情報源のひとつを汚染している。

生成AIによって生成された教材は、しばしば誤りや偏った考えを含んでいるにもかかわらず、極めて正確で説得力があるように見えることがあるため、これは特に重要である。このことは、問題となっているトピックについて確かな予備知識を持たない若い学習者に高いリスクをもたらす。また、GPTモデル自身が作成した、偏りや誤りを含むインターネットからスクレイピングされたテキストでトレーニングされる将来のGPTモデルにも、再帰的なリスクをもたらす。

・研究者、教員、学習者は、生成AIシステムが攻撃的で非倫理的な資料を出力する可能性があることを認識する必要がある。
・また、将来のGPTモデルが以前のGPTモデルが生成したテキストに基づいている場合、知識の信頼性に長期的な問題が生じる可能性があることも知っておく必要がある。

教育と研究への示唆

2.6 現実世界に対する無理解

テキストGPTは「確率的オウム返し」と侮蔑的に呼ばれることがある。その理由は、先に述べたように、説得力があるように見えるテキストを作成できる一方で、そのテキストに誤りが含まれていることが多く、有害な記述が含まれている可能性があるからである(Bender et al.)このようなことが起こるのは、GPTが学習データ(たいていはインターネットから抽出されたテキスト)に含まれる言語パターンを繰り返すだけで、ランダムな(あるいは「確率的な」)パターンから始め、その意味を理解しないためである。

生成AIのモデルが使用し生成するテキストを理解しているように「見える」ことと、言語や現実世界を理解していないという「現実」との間に断絶があるため、教員や生徒が、その出力に正当化できないレベルの信頼を置くことになりかねない。これは将来の教育に深刻なリスクをもたらす。実際、生成AIは現実世界の観察や科学的手法の他の重要な側面から情報を得ているわけではなく、人間や社会の価値観に沿ったものでもない。

これらの理由から、現実世界、物体とその関係、人々と社会的関係、人間と物体の関係、人間とテクノロジーの関係などについて、真に斬新なコンテンツを生成することはできない。生成AIのモデルによって生成された一見斬新なコンテンツが、科学的知識として認められるかどうかは議論の余地がある。

すでに述べたように、GPTはしばしば不正確な、あるいは信頼できない文章を作成することがある。実際、GPTが現実には存在しないものを作り上げることはよく知られている。これを「幻覚」と呼ぶ人もいるが、そのような擬人化された、したがって誤解を招く用語を使うことを批判する人もいる。このことは、生成AIを製造している企業も認めている。例えば、ChatGPTの公開インターフェースの下部にはこう書かれている。「 ChatGPTは人、場所、または事実について不正確な情報を生成する可能性がある」*2。

また、生成AIは、人間よりも知的なAIのクラスを示唆する用語である人工知能一般知能(AGI)への旅における重要な一歩を示すものだと、少数の支持者によって示唆されてきた。しかし、これは長い間批判されており、少なくとも知識ベースのAI(記号ベースまたはルールベースのAIとしても知られる)とデータベースのAI(機械学習としても知られる)の両方を何らかの形で共生させるまでは、AIはAGIに向けて進歩することはないだろうという主張がある(Marcus, 2022)。

また、AGIや感覚の主張は、すでに差別されている集団に対する隠れた差別など、AIによって現在行われている害悪をより注意深く考慮することから私たちの目をそらさせる(Metz, 2021)。

・テキスト生成AIの出力は、あたかもそれが生成したテキストを理解しているかのように、印象的に人間のように見えることがある。しかし、生成AIは何も理解していない。代わりに、これらのツールはインターネット上で一般的な方法で単語をつなぎ合わせる。また、生成されるテキストは間違っていることもある。
・研究者、教員、学習者は、GPTが生成するテキストを理解していないこと、誤った文を生成する可能性があること、そしてしばしば生成することを認識する必要がある。

教育と研究への示唆

2.7 意見の多様性を減らし、すでに疎外されている声をさらに疎外する

ChatGPTや同様のツールは、モデルの訓練に使用したデータの所有者/作成者の価値観を前提とした標準的な回答のみを出力する傾向がある。実際、一般的で議論の余地のないトピックや、主流または支配的な信条がそうであるように、一連の単語が学習データに頻繁に現れる場合、GPTの出力ではそれが繰り返される可能性が高い。

このことは、多元的な意見やアイデアの多元的な表現の発展を制約し、弱体化させる危険がある。北半球の周縁化されたコミュニティを含め、データに乏しい人々は、オンラインでのデジタルプレゼンスが最小限か限られている。その結果、彼らの声は届かず、彼らの懸念はGPTの訓練に使われるデータには反映されない。このような理由から、インターネットのウェブページやソーシャルメディア上の会話から得たデータに基づく事前トレーニングの方法論では、GPTモデルはすでに不利な立場に置かれている人々をさらに疎外する可能性がある。

2.8 より深刻なディープフェイクの生成

すべての生成AIに共通する論争に加え、GAN(敵対的生成ネットワーク)生成AIは、既存の画像や動画を変更または操作して、本物と見分けがつきにくい偽物を生成するために使用することができる。生成AIによって、こうした「ディープフェイク」やいわゆる「フェイクニュース」の作成がますます容易になっている。言い換えれば、生成AIは、偽情報の拡散、ヘイトスピーチの促進、人の顔を、本人の認識や同意なしに、完全にフェイクで、時には危険な映像に組み込むといった、非倫理的、非道徳的、犯罪的行為を、特定の行為者が容易に行えるようにしている。

・生成AIモデルの開発者と提供者は、これらのモデルのデータセットとアウトプットのバイアスに継続的に対処する第一の責任を有するが、ユーザー側の研究者、教員、学習者は、テキスト生成A Iのアウトプットは、その学習データが作成された時点で最も一般的または支配的な世界観のみを表しており、その中には問題があったり、バイアスがかかっていたりする(例えば、ステレオタイプ的な性別役割)ことを知る必要がある。
・学習者、教員、研究者は、生成AIが提供する情報を決して額面通りに受け入れるべきではなく、常に批判的に評価すべきである。
・また、研究者、教員、学習者は、マイノリティの声がどのように取り残されうるかにも注意しなければならない。なぜなら、マイノリティの声は訓練データにおいて定義上、一般的ではないからである。

教育と研究への影響

利用者の著作権や肖像権を保護することは生成AIプロバイダーの義務であるが、研究者、教員、学習者は、インターネット上で共有した画像が生成AIのトレーニングデータに組み込まれる可能性があり、非倫理的な方法で操作され使用される可能性があることも認識しておく必要がある。

教育と研究への影響

3.教育における生成AIの利用を規制する

生成AIをめぐる論争に対処し、教育における生成AIの潜在的な利点を活用するためには、まず規制が必要である。教育目的での生成AIの規制には、倫理的で安全かつ公平で有意義な利用を保証するために、人間中心のアプローチに基づく多くのステップと政策措置が必要である。

3.1 AIに対する人間中心のアプローチ

人工知能の倫理に関する2021年勧告は、教育や研究に関連するものも含め、生成AIをめぐるさまざまな論争に対処し始めるために必要な規範的枠組みを提供するものである。この勧告は、包摂的で公正かつ持続可能な未来のために、AIを人間の能力開発に役立てるべきであるという人間中心のAIへのアプローチに基づいている。

このようなアプローチは、人権の原則と、人間の尊厳とナレッジ・コモンズを定義する文化的多様性を保護する必要性によって導かれなければならない。ガバナンスの面では、人間中心のアプローチには、人間の主体性、透明性、公的説明責任を確保できる適切な規制が必要である。

「人工知能(AI)と教育に関する2019年北京コンセンサス」は、教育の文脈におけるAIの利用について、人間中心のアプローチが意味するものをさらに詳しく述べている。コンセンサスは、教育におけるAI技術の活用が、持続可能な開発のための人間の能力と、生活、学習、仕事における人間と機械の効果的な協働を高めるものでなければならないことを確認している。

また、言語や文化の多様性を促進しつつ、社会から疎外された人々を支援し、不平等に対処するために、AIへの公平なアクセスを確保するためのさらなる行動を求めている。このコンセンサスは、教育におけるAIに関する政策立案に、政府全体、セクター間、マルチステークホルダー・アプローチを採用することを提案している。

「AIと教育: 政策決定者のためのガイダンス」 (UNESCO,2022b)は、教育におけるAIの利点とリスク、そしてAIの能力を開発する手段としての教育の役割を検討する際に、人間中心のアプローチが意味するものをさらに洗練させている。

(i)学習プログラムへの包摂的なアクセス、特に障害のある学習者などの脆弱なグループに対するアクセスを可能にする。
(ii)個別化された、開かれた学習オプションを支援する。
(iii)学習へのアクセスを拡大し、質を向上させるために、データに基づく規定と管理を改善する。
(iv)学習プロセスを監視し、教員に失敗のリスクを警告する
(v)AIの倫理的で有意義な使用のための理解とスキルを開発する。

3.2 教育における生成AI規制のステップ

ChatGPTがリリースされる以前から、各国政府はデータの収集と利用、AIシステムの採用を規制するための枠組みを、教育分野を含むあらゆる分野で開発または適応させており、これは新たに出現したAIアプリケーションを規制するための立法的・政策的背景を提供していた。2022年11月に開始された複数の競争力のある生成AIモデルのリリースの余波を受けて、各国政府は生成AIの禁止から、既存の枠組みを適応させるためのニーズの評価、新たな規制の緊急策定まで、さまざまな政策対応を採用している。

2023年4月、生成AIの創造的な利用を規制し促進するための政府戦略がマッピングされ、レビューされた(UNESCO, 2023b)*47。このレビューでは、政府機関が生成AIを規制し、教育を含む分野全体でその可能性を活用するために、公的なコントロールを取り戻すために取ることができる一連の6つのステップを提案している。

ステップ1:国際的または地域的な一般データ保護規則(GDPR)の承認、または国内GDPRの策定

生成AIモデルのトレーニングは、多くの国の市民からオンラインデータを収集し、処理することに関与している。生成AIモデルが同意なしにデータやコンテンツを使用することは、データ保護の問題をさらに難しくしている。

2018年に制定されたEUのGDPRを先行例の一つとする一般データ保護規則は、生成AIのサプライヤーによる個人データの収集と処理を規制するために必要な法的枠組みを提供する。国連貿易開発会議(UNCTAD)のデータ保護とプライバシー法制ワールドラインポータルによると、194カ国中137カ国がデータ保護とプライバシーを保護する法制を制定している*48。

しかし、これらの枠組みがこれらの国々でどの程度実施されているかは、依然として不透明である。したがって、生成AIシステムの運用を定期的に監視するなどして、これらの枠組みが適切に実施されていることを確認することがますます重要になっている。また、まだ一般データ保護法を制定していない国々にとっても、その整備は急務である。

ステップ2:AIに関する政府全体戦略の採択・改訂と資金提供

生成AIを規制することは、教育を含む開発分野全体にわたってAIの安全かつ公平な利用を確保できる、より広範な国家AI戦略の一部でなければならない。国家AI戦略の策定、承認、資金提供、実施には、政府全体のアプローチが必要である。このようなアプローチでなければ、新たな課題への統合的対応に必要なセクター間の行動の調整を確保することはできない。

2023年初頭までに、約67カ国がAIに関する国家戦略を策定または計画しており、そのうち61カ国が独立したAI戦略の形をとり、7カ国がより広範な国家ICT戦略またはデジタル化戦略の中にAIに関する章を組み込んでいる。当然のことながら、その新しさから、本稿執筆時点では、これらの国家戦略のうち、特定の課題として生成AIを取り上げたものはまだない。各国は、既存の国家AI戦略を改訂するか、あるいはそれを策定し、教育を含むあらゆる分野におけるAIの倫理的利用を規制する規定を確保することが重要である。

ステップ3:AIの倫理に関する具体的規制の確立と実施

AIの利用がもたらす倫理的側面に対処するためには、具体的な規制が必要である。既存のAI戦略に関するユネスコ2023年のレビューによると、このような倫理的問題の特定と指針の策定は、約40カ国のAI戦略にしか共通していない*50。また、このような場合でも、倫理原則を強制力のある法律や規則に変換する必要がある。このようなケースはめったにない。実際、教育との関連も含め、AIの倫理について明確な規制を定めている国は、国家AI戦略の一部であるにせよ、そうでないにせよ、わずか20カ国程度に過ぎなかった。

興味深いことに、約45カ国のAI戦略において教育が政策領域として強調されているが51、教育への言及は、国家競争力を支えるために必要なAIのスキルや人材育成という観点でより明確にされており、倫理的な問題という観点ではあまり言及されていない。AIの倫理に関する規制をまだ設けていない国は、早急にそれを明確にし、実施しなければならない。

ステップ4:AIが生成したコンテンツを規制するために既存の著作権法を調整または施行する

生成AIの利用がますます広まるにつれ、モデルが学習する著作権のあるコンテンツや作品、そしてモデルが生み出す「非人間的な」知識アウトプットの地位の両方に関して、著作権に新たな課題が持ち込まれている。

現在、中国、欧州連合(EU)諸国、米国だけが、生成AIの意味を考慮して著作権法を調整している。例えば、米国著作権局は、ChatGPTのような生成AIシステムの出力は米国著作権法では保護できないと裁定し、「著作権で保護できるのは人間の創造性の産物のみである」と主張している(US Copyright Office, 2023)。

EUでは、提案されているEU AI法が、AIツールの開発者に対し、システムの構築に使用した著作物の開示を義務付けている(European Commission,2021)。中国は、2023年7月に発表した生成AIに関する規制を通じて、生成AIのアウトプットをAIが生成したコンテンツとして表示することを求めており、デジタル合成のアウトプットとしてのみ認めている。

生成AIモデルのトレーニングにおける著作物の使用を規制し、生成AIアウトプットの著作権の地位を定義することは、著作権法の新たな責務として浮上している。このことを考慮し、既存の法律を調整することが急務である。

ステップ5:生成AIに関する規制の枠組みの精緻化

AI技術の急速な発展ペースは、国や地方の統治機関に規制の更新のスピードアップを迫っている。2023年7月の時点で、生成AIに関する具体的な公式規制を発表しているのは中国1カ国のみである。2023年7月13日に発表された「生成AIのサービスを管理することに関する暫定規則」(中国サイバースペース管理局、2023a)は、生成AIシステムのプロバイダーに対し、既存の「オンライン情報サービスの枠組みにおける深層合成に関する規則」に従い、AIが生成したコンテンツ、画像、動画を適切かつ合法的に表示するよう求めている。このような各国の生成AIに特化した枠組みは、既存の規制や法律のギャップを評価した上で、より多く策定される必要がある。

ステップ6:教育と研究における生成AIの適切な利用のための能力開発

学校やその他の教育機関は、教育における生成AIを含むAIの潜在的な利点とリスクを理解する能力を開発する必要がある。そのような理解に基づいて初めて、AIツールの採用を検証することができる。さらに、教員や研究者は、研修や継続的なコーチングなどを通じて、生成AIを適切に利用するための能力強化を支援する必要がある。シンガポールは、GPTモデルの専用リポジトリを含むAIガバメント・クラウド・クラスターを通じて、教育機関のAI能力開発のための専用プラットフォームを提供している(Ocampo, 2023)。

ステップ7:教育と研究に対する生成AIの長期的な影響について考える

現在の生成AIの影響はまだ始まったばかりであり、教育への影響はまだ十分に調査・理解されていない。一方で、より強力なバージョンの生成AIや他のクラスのAIが開発・導入され続けている。しかし、知識の創造、伝達、検証、つまり教育と学習、カリキュラムの設計と評価、研究と著作権に対する生成AIの影響については、重大な疑問が残っている。ほとんどの国は、教育における生成AIの導入の初期段階にあり、長期的な影響はまだ理解されていない。

人間中心のAI利用を確実にするためには、長期的な影響に関する公開討論と政策対話を早急に実施すべきである。政府、民間企業、その他のパートナーを巻き込んだ包摂的な議論は、規制や政策の反復的な更新のための洞察やインプットを提供するのに役立つはずである。

3.3 生成AIに関する規制:重要な要素

すべての国は、生成AIが教育や他の文脈における開発に利益をもたらすことを確実にするために、生成AIを適切に規制する必要がある。本節では、主要な要素について、以下のような行動を提案する: (1)政府の規制機関、(2)AIを活用したツールの提供者、(3)組織の利用者、(4)個人の利用者。このフレームワークの要素の多くは国境を越える性格のものであるが、すべての要素は、現地の状況、すなわち、特定の国の教育制度やすでにある一般的な規制の枠組みにも照らして検討されるべきである。

3.3.1. 政府規制機関

生成AIに関する規制の設計、調整、実施の調整には政府全体のアプローチが必要である。以下の7つの重要な要素と行動が推奨される。

・セクター間の調整
セクター間の調整:生成AIに対する政府全体のアプローチを主導し、セクター間の協力を調整する国家機関を設立する。

・法律の整合
例えば、一般的なデータ保護法、インターネット・セキュリティに関する規制、市民から生成される、または市民へのサービスに使用されるデータのセキュリティに関する法律、その他の関連する法律や通常の慣行など。生成AIによって提起された新たな問題に対応するため、既存の規制の適切性及び必要な適応を評価する。

・生成AIの規制とAIイノベーションの促進のバランス
企業、産官学、教育研究機関、関連公的機関のセクター間連携を促進し、信頼できるモデルを共同開発する。 オープンソースエコシステムの構築を奨励し、スーパーコンピューティングリソースと高品質な事前トレーニングデータセットの共有を促進する。そして、セクターを超えた生成AIの実用化と、公益のための高品質なコンテンツの創造を促進する。

・AIの潜在的リスクの評価と分類
生成AIサービスの有効性、安全性、セキュリティの評価と分類のための原則とプロセスを確立する。市民にとって生成AIが意味するリスクのレベルに基づく分類メカニズムを検討する。厳格な規制(受け入れがたいリスクのあるAI対応アプリケーションやシステムの禁止)、リスクの高いアプリケーションに対する特別な規制、リスクの高くないアプリケーションに対する一般的な規制に分類する。このアプローチの例として、EUのAI法草案を参照。

・データ・プライバシーの保護
データプライバシー保護:生成AIの利用は、ほとんどの場合、利用者が生成AIプロバイダーとデータを共有することを伴うという事実を考慮する。利用者の個人情報保護のための法律の起草と実施を義務付け、違法なデータの保存、プロファイリング、共有を特定し、これに対抗する。

・生成AIの使用に関する年齢制限の定義と実施
ほとんどの生成AIアプリケーションは、主に成人ユーザー向けに設計されている。これらのアプリケーションは、不適切なコンテンツや操作の可能性にさらされるなど、子どもにとって大きなリスクを伴うことが多い。このようなリスクを考慮し、また反復的な生成AIアプリケーションを取り巻く不確実性を考慮すると、子どもの権利と福祉を保護するために、汎用AI技術には年齢制限が強く推奨される。現在、ChatGPTの利用規約では、ユーザーは13歳以上でなければならず、18歳未満のユーザーがサービスを利用するには、親または法定後見人の許可が必要である*52。

このような年齢制限や閾値は、アメリカ合衆国の児童オンライン・プライバシー保護法(Federal Trade Commission, 1998)を遡る。ソーシャルメディアが普及する前、ChatGPTのような使いやすく強力な生成AIアプリケーションが誕生するずっと前の1998年に成立したこの米国法は、組織や個々のソーシャルメディア・プロバイダーが、親の許可なしに13歳未満の子どもにサービスを提供することを禁じている。多くのコメンテーターは、この基準は若すぎると理解し、年齢を16歳に引き上げる法律を提唱している。欧州連合(EU)のGDPR(2016年)は、保護者の許可なしにソーシャルメディアのサービスを利用するには、利用者は16歳以上でなければならないと規定している。

様々な生成AIチャットボットの出現は、各国が生成AIプラットフォームとの独立した会話に適切な年齢基準を慎重に検討し、公に審議することを要求している。最低閾値は13歳であるべきだ。また、自己申告による年齢確認が適切な手段であるかどうかも決定する必要がある。各国は、年齢確認のための生成AIプロバイダーの説明責任と、未成年の子どもの独立した会話を監視するための保護者の説明責任を義務付ける必要がある。

・国のデータ所有権とデータ貧困のリスク
国のデータ所有権を保護し、国内で活動する生成AIのプロバイダーを規制するための立法措置をとる。商業目的で利用されている市民が生成したデータセットについては、この種のデータが国内から流出し、ビッグテック企業によって独占的に利用されることのないよう、互恵協力を促進するための規制を設ける。

3.3.2. 生成AIツールの提供者

生成AIのプロバイダーには、生成AIツールを開発し利用可能にする責任を負う組織や個人、および/またはプログラマブルなアプリケーションプログラミングインタフェース(API)を通してを含むサービスを提供するために生成AI技術を使用している組織や個人が含まれる。生成AIツールの有力なプロバイダーのほとんどは、非常に資金力のある企業である。

彼らは、規則に規定された倫理原則を実施することを含め、デザインによる倫理の説明責任を負う。以下の10項目の説明責任をカバーする必要がある。

・人間の説明責任
生成AIプロバイダーは、中核的価値観と合法的目的の遵守、知的財産の尊重、倫理的慣行の維持に責任を負うべきであり、同時に偽情報やヘイトスピーチの拡散を防ぐべきである。

・信頼できるデータとモデル
生成AIプロバイダーは、そのモデルや出力で使用されるデータソースや手法の信頼性と倫理性を証明することを義務付けられるべきである。法的根拠が証明されたデータと基盤モデルを採用し、関連する知的財産法を遵守することを義務付けるべきである(データが知的財産権で保護されている場合など)。さらに、モデルが個人情報を使用する必要がある場合、当該情報の収集は、十分な情報を得た上で、所有者の明示的な同意を得た場合にのみ行われるべきである。

・差別的でないコンテンツ生成
生成AIのプロバイダーは、人種、国籍、性別、その他の保護されるべき特性に基づいて、偏った、あるいは差別的なコンテンツを生成する生成AIシステムの設計と配備を禁止しなければならない。生成AIが攻撃的、偏見的、または虚偽のコンテンツを生成することを防ぐために、強固な「ガードレール」が設置されていることを保証する一方で、ガードレールの通知に関与する人間が保護され、悪用されないことを保証しなければならない。

・生成AIモデルの説明可能性と透明性
必要であれば、ガバナンス機関が技術とデータを理解するためのサポートを提供すべきである。生成AIがエラーを含むコンテンツを生成したり、論争可能な回答を生成したりする傾向は、ユーザーにとって透明化されるべきである。

・生成AIコンテンツの表示
オンライン情報のAI支援合成に関する関連法規に従い、プロバイダーは生成AIが生成した論文、レポート、画像、動画に適切かつ合法的なラベルを付ける必要がある。例えば、生成AIの出力は、機械によって生成されたものであることを明確に表示すべきである。

・セキュリティと安全の原則
生成AIの提供者は、生成AIシステムのライフサイクルを通じて、安全で堅牢かつ持続可能なサービスを確保すべきである。

・アクセスと使用の適切性に関する仕様
生成AIの提供者は、そのサービスの適切な利用者、利用シナリオ、利用目的について明確な仕様を提供し、生成AIツールの利用者が合理的かつ責任ある意思決定を行えるよう支援すべきである。

・限界の認識と予測可能なリスクの防止
生成AIの提供者は、システムが使用する手法とそのアウトプットの限界を明確に宣伝すべきである。
入力データ、方法、出力が、予測可能な危害をユーザーに与えないことを保証する技術を開発し、予測不可能な危害が発生した場合にそれを軽減するプロトコルを開発する必要がある。また、利用者が倫理原則に基づいて生成AIが生成したコンテンツを理解し、生成されたコンテンツへの過度の依存や中毒を防ぐためのガイダンスを提供しなければならない。

・苦情と救済のメカニズム
生成AIのプロバイダーは、ユーザーや広く一般からの苦情を収集するための仕組みとチャネルを確立し、これらの苦情を受理し処理するためのタイムリーな行動をとる必要がある。

・違法利用の監視と報告
プロバイダーは、違法利用の監視と報告を促進するため、公的統治機関と協力しなければならない。これには、偽情報やヘイトスピーチの促進、スパムの生成、マルウェアの作成など、違法な、あるいは倫理的・社会的価値観に反する方法で生成AI製品を使用する場合も含まれる。

3.3.3. 機関ユーザー

機関ユーザーには、大学や学校などの教育当局や機関が含まれ、生成AIを採用すべきかどうか、どのタイプの生成AIツールを調達し、機関内に配備すべきかを決定する責任を持つ。

・生成AIのアルゴリズム、データ、アウトプットの制度的監査
生成AIツールが使用するアルゴリズムとデータ、そしてそれらが生成するアウトプットを可能な限り監視する仕組みを導入する。これには、定期的な監査と評価、ユーザーデータの保護、不適切なコンテンツの自動フィルタリングを含むべきである。

・比例性の検証と利用者の福利の保護
生成AIシステムやアプリケーションを分類・検証するための国家的な分類メカニズムを導入するか、制度的な方針を構築する。機関が採用する生成AIシステムが、現地で検証された倫理的枠組みに沿ったものであり、機関の対象ユーザー、特に子どもや社会的弱者に予測可能な危害を与えないことを確認する。

・長期的な影響の検討と対応
教育において生成AIのツールやコンテンツに依存することは、批判的思考力や創造性といった人間の能力の発達に大きな影響を及ぼす可能性がある。これらの潜在的な影響を評価し、対処する必要がある。

・年齢の妥当性
教育機関における生成AIの単独利用について、最低年齢制限の実施を検討する。

3.3.4. 個人ユーザー

個人ユーザーには、インターネットと少なくとも1種類の生成AIツールにアクセスできる世界中のすべての人々が含まれる可能性がある。ここでいう「個人ユーザー」とは、主に正規の教育機関や非正規の学習プログラムに参加する教員、研究者、学習者個人を指す。

・生成AI 利用規約の周知
サービス契約への署名や同意の表明に際しては、契約書に記載された業務仕様書やその背景にある法令を遵守する義務があることを認識する。

・生成AI アプリケーションの倫理的利用
利用者は責任を持って 生成AI を利用し、他人の評判や合法的な権利を損なうような利用を避ける。

・違法な生成AIアプリケーションの監視と報告
1つまたは複数の規制に違反する生成AIアプリケーションを発見した場合、 ユーザーは、政府規制機関に通知する必要がある。

4. 教育・研究における生成AI利用のための政策的枠組みに向けて

生成AIを規制し、教育や研究に潜在的な利益を活用するには、適切な政策を策定する必要がある。先に引用した2023年の調査データによれば、教育におけるAIの利用について具体的な政策や計画を採用している国はほんの一握りである。前節では、ビジョン、必要なステップ、重要な要素、さまざまなステークホルダーが取り得る行動について概説した。本節では、教育・研究における生成AIの利用を規制するための首尾一貫した包摂的な政策枠組みを策定するために取り得る方策を示す。

その出発点となるのが「2022 AIと教育:政策決定者のためのガイダンス」(UNESCO, 2022b)である。このガイダンスでは、質の高い教育、社会的公平性、インクルージョンの促進に重点を置き、AIと教育に関する分野全体の政策の策定と実施において各国政府を導くための包摂的な勧告が提示されている。勧告のほとんどは、教育における生成AIに関する具体的な政策策定の指針として、引き続き適用可能であり、さらに適応させることができる。この既存のガイダンスを補完するために、教育・研究における生成AIに関する政策立案のための以下の8つの具体的な方策を提案する。

4.1 インクルージョン、公平性、言語的・文化的多様性の促進

インクルージョンの重要性は、生成AIのライフサイクルを通じて認識され、取り組まれなければならない。より具体的には、生成AIツールが(性別、民族性、特別な教育ニーズ、社会的経済的地位、地理的位置、移住の有無などにかかわらず)包摂的にアクセスできるようにされ、また、デザインによって公平性、言語的多様性、文化的多元性を促進しない限り、教育における根本的な課題の解決やSDG4コミットメントの達成に役立つことはない。これを達成するために、以下の3つの政策手段を推奨する。

・AIアプリケーションへの公平で包摂的なアクセスの障壁を軽減するために、インターネット接続やデータ通信ができない、またはできない人々を特定し、ユニバーサル・コネクティビティとデジタル・コンピテンシーを促進するための行動をとる。障害や特別なニーズを持つ学習者のためのAI対応ツールの開発と提供のための持続可能な資金調達メカニズムを確立する。あらゆる年齢、場所、背景の生涯学習者を支援するために生成AIの利用を促進する。

・データやアルゴリズムにジェンダーバイアス、社会から疎外されたグループに対する差別、ヘイトスピーチがないことを保証するために、生成AIシステムの検証基準を開発する。

・生成AIシステムの包摂的な仕様を策定・実施し、教育や研究において生成AIを大規模に展開する際に、言語的・文化的多様性を保護するための制度的対策を実施する。関連する仕様は、生成AIのプロバイダーがGPTモデルのトレーニングに多言語、特にローカル言語や先住民言語のデータを含めることを要求し、生成AIの多言語テキストへの対応と生成能力を向上させるべきである。仕様と制度的措置は、AIプロバイダーが意図的または非意図的に少数言語を排除したり、先住民言語の話者に対する差別を行ったりすることを厳しく防止し、支配的な言語や文化的規範を促進するシステムを停止するようプロバイダーに求めるべきである。

4.2 人間の主体性を守る

生成AIがますます洗練されていくにつれ、重要な危険性は人間の主体性を損なう可能性があることだ。
より多くの個人ユーザーが執筆やその他の創造的活動をサポートするために生成AIを使用するようになると、彼らは意図せず生成AIに依存するようになるかもしれない。これは知的スキルの発達を損なう可能性がある。生成AIは人間の思考に挑戦し拡張するために使われるかもしれないが、人間の思考を簒奪することは許されるべきではない。以下の7つの観点から、生成AIを設計・採用する際には、人間の主体性の保護と強化が常に中心的な考慮事項となるべきである。

・生成AIが学習者から収集する可能性のあるデータの種類、これらのデータがどのように使用され、学習者の教育や生活により大きな影響を与える可能性があることを学習者に伝える。

・学習者が個人として成長し、学ぼうとする内発的動機を保護する。ますます高度化する生成AIシステムを利用する中で、研究、教育、学習へのアプローチに対する人間の自律性を強化する。

・現実世界の観察、実験などの経験的な実践、他の人間との議論、主体的な論理的推論などを通して、学習者が認知能力や社会的スキルを発達させる機会を奪うような生成AIの使用を防ぐ。

・十分な社会的相互作用を確保し、人間が生み出す創造的なアウトプットに適切に触れることで、学習者が生成AIに依存したり中毒になったりするのを防ぐ。

・宿題や試験のプレッシャーを悪化させるのではなく、最小限に抑えるために生成AIツールを使う。

・研究者、教員、学習者の生成AIに対する意見を聞き、そのフィードバックをもとに、具体的な生成AIツールを組織規模で導入するかどうか、またどのように導入するかを決定する。学習者、教員、研究者が、AIシステムの背後にある方法論、出力内容の正確さ、AIシステムが課す規範や教育法について批判し、疑問を呈するよう促す。

・重大な意思決定を行う際に、人間の説明責任を生成AIシステムに委ねることを防ぐ。

4.3 教育のための生成AIシステムの監視と検証

前述したように、生成AIの開発と導入は倫理的に設計されるべきである。その後、生成AIが使用されるようになると、そのライフサイクルを通じて、倫理的リスク、教育学的適切性と厳密性、生徒、教員、教室・学校関係への影響について、注意深く監視し、検証する必要がある。この観点から、以下の5つの行動を推奨する。

・教育や研究で使用される生成AIシステムに偏り、特にジェンダーの偏りがないか、多様性(ジェンダー、障害、社会的・経済的地位、民族的・文化的背景、地理的位置など)を代表するデータで訓練されているかを検証する仕組みを構築する。

・インフォームド・コンセントの複雑な問題に対処する。

・生成AIの出力に、ディープフェイク画像、フェイク(不正確または虚偽)ニュース、ヘイトスピーチが含まれていないかどうかを監査する。生成AIが不適切なコンテンツを生成していることが判明した場合、教育機関や教育者は、問題を軽減または除去するために迅速かつ強固な行動を取る意思と能力を持つべきである。

・教育機関や研究機関で正式に採用される前に、生成AIアプリケーションの厳格な倫理的検証を実施する(すなわち、ethics-by-designアプローチを採用する)。教育機関への採用を決定する前に、問題の生成AIアプリケーションが生徒にとって予測可能な危害を及ぼさないこと、対象となる学習者の年齢や能力に対して教育的に効果的かつ妥当であること、健全な教育学的原則(すなわち、関連する知識領域と期待される学習成果や価値観の育成に基づいていること)に合致していることを確認する。

4.4 学習者の生成AI関連スキルを含むAIコンピテンシーの開発

学習者のAIコンピテンシーの育成は、教育やそれ以外でのAIの安全かつ倫理的で有意義な利用の鍵となる。しかし、ユネスコのデータによれば、2022年初頭の時点で、政府お墨付きのAIカリキュラムを学校で開発・実施している、あるいは開発過程にある国はわずか15カ国程度に過ぎない(UNESCO, 2022c)。

生成AIの最新動向は、すべての人がAIの人間的側面と技術的側面の両方において適切なレベルのリテラシーを獲得し、生成AIの具体的な影響だけでなく、それがどのように機能するかを大まかに理解することの緊急の必要性をさらに強めている。そのためには、以下の5つのアクションが緊急に必要とされている。

・政府公認のAIカリキュラムを、学校教育、技術・職業教育、生涯学習において提供することにコミットする。AIカリキュラムは、AIが私たちの生活に与える影響(AIが提起する倫理的問題を含む)、アルゴリズムとデータに関する年齢に応じた理解、生成AIアプリケーションを含むAIツールの適切かつ創造的な使用のためのスキルをカバーすべきである。

・高等教育機関や研究機関が地域のAI人材を育成するためのプログラムを強化することを支援する。

・高度なAI能力の開発における男女平等を推進し、性別にバランスの取れた専門家を育成する。

・最新の生成AIの自動化によって引き起こされる国内および世界的な雇用シフトの部門間予測を策定し、将来的な需要シフトに基づき、あらゆるレベルの教育および生涯学習システムにおいて、将来を見据えたスキルを強化する。新たなスキルを習得し、新たな環境に適応する必要がある高齢労働者や市民のために、特別なプログラムを提供する。

4.5 教員と研究者が生成AIを適切に活用するための能力構築

政府による教育へのAIの活用に関する2023年の調査データ(UNESCO, 2023c)によると、教員向けのAIに関するフレームワークや研修プログラムを開発した、あるいは開発中であると報告したのは、わずか7カ国(中国、フィンランド、グルジア、カタール、スペイン、タイ、トルコ)であった。シンガポールの教育省だけが、教育と学習におけるChatGPTの利用を中心としたオンライン・リポジトリの構築を報告している。このことは、ほとんどの国の教員が、教育におけるAIの利用、特に生成AIの利用について、十分に体系化されたトレーニングを受けることができないことを示している。

教員が生成AIを責任を持って効果的に使用できるように準備するために、各国は以下のような行動をとる必要がある。

・研究者や 教員が広く利用可能な生成AIツールを使いこなし、新たな分野特化型AIアプリケーションの設計を導くことができるよう、現地のテストに基づいたガイダンスを策定または調整する。

・生成AIを使用する際の教員と研究者の権利とその実践価値を保護する。より具体的には、高次の思考を促進し、人間の相互作用を組織化し、人間の価値観を育むという教員独自の役割を分析する。

・教員が生成AIシステムを理解し、効果的かつ倫理的に使用するために必要な価値志向、知識、スキルを定義する。教員が生成AIを活用した具体的なツールを作成し、教室での学習や自身の専門的な能力開発を促進できるようにする。

・教員がAIを理解し、教育や学習、専門的な学習のために使用するために必要な能力を動的に見直す。AIに関する価値観、理解、スキルの新たなセットを、現職教員および現職教員養成のためのコンピテンシーフレームワークとプログラムに統合する。

4.6 複数の意見と複数の思想表現の促進


先に述べたように、生成AIはプロンプトもレスポンスも理解しない。その代わりに、その応答は、そのモデルが学習されたときに取り込まれたデータ(インターネットから)に見出された言語パターンの確率に基づいている。その出力の根本的な問題のいくつかに対処するために、生成AIを知識データベースや推論エンジンと接続するなどの新しい方法が現在研究されている。とはいえ、生成AIはその仕組み、ソース、開発者の暗黙の視点ゆえに、定義上、出力において支配的な世界観を再生産し、少数意見や複数の意見を弱体化させる。従って、人類の文明が繁栄するためには、生成AIがどのようなトピックを扱うにせよ、決して権威ある知識源にはなり得ないことを認識することが不可欠である。その結果、ユーザーは生成AIの出力結果を批判的に見る必要がある。特に次の点に気をつける。

・スピードは速いが、信頼できないことが多い情報源としての生成AIの役割を理解すること。
先に述べたいくつかのプラグインやLLMベースのツールは、検証された最新の情報にアクセスする必要性をサポートするように設計されているが、これらが効果的であるという確かな証拠はまだほとんどない。

・生成AIが提供する回答を批評するよう、学習者や研究者に奨励する。生成AIは通常、確立された意見や標準的な意見を繰り返すだけであるため、複数の意見や少数派の意見、複数のアイデアの表現が損なわれていることを認識する。

・学習者に試行錯誤、実証実験、現実世界の観察から学ぶ機会を十分に与える。

4.7 地域に関連した応用モデルをテストし、累積的な証拠基盤を構築する

生成AIモデルはこれまでのところ、北半球からの情報に支配されており、南半球や先住民コミュニティからの声は十分に反映されていない。例えば合成データの活用(Marwala, T. 2023)など、断固たる努力によってのみ、生成AIツールは地域コミュニティ、特にグローバル・サウスからのコミュニティの文脈とニーズに敏感に反応するようになる。より広く協力しながら、現地のニーズに合ったアプローチを模索するために、以下の8つの行動を推奨する。

・生成AIの設計と導入が、受動的で重要でない調達プロセスを促進するのではなく、戦略的に計画されるようにする。

・生成AIの設計者が、オープンエンドで、探索的で、多様な学習オプションをターゲットにするよう奨励する。

・斬新さ、神話、誇大広告ではなく、教育や研究の優先順位に沿った、AIを教育や研究に応用するエビデンスに基づいたユースケースをテストし、スケールアップする。

・コンピューティング能力、大規模データ、研究手法の改善に情報を提供しインスパイアするための生成AIのアウトプットを活用することを含め、研究におけるイノベーションを誘発するための生成AIの利用を導く。

・研究過程に生成AIを取り入れることの社会的・倫理的意味を検討する。

・実証された教育学的研究と方法論に基づく具体的な基準を設定し、包摂的な学習機会の提供、学習・研究目的の達成、言語的・文化的多様性の促進を支援するという観点から、生成AIの有効性に関するエビデンスベースを構築する。

・生成AIの社会的・倫理的影響に関するエビデンスを強化するための反復的なステップを踏む。

・AI技術を大規模に活用する際の環境コスト(GPTモデルのトレーニングに必要なエネルギーや資源など)を分析し、気候変動への影響を回避するためにAIプロバイダーが満たすべき持続可能な目標を策定する。

4.8 セクター間・学際的な方法で長期的な影響を検討する

教育及び研究において生成AIを効果的かつ倫理的に使用するためには、セクター間及び学際的なアプローチが不可欠である。複数の利害関係者が一堂に会し、様々な専門知識を活用することによってのみ、重要な課題を迅速に特定し、長期的な悪影響を最小限に抑えつつ、継続的かつ累積的な利益を活用するために効果的に対処することができる。そこで、以下の3つの行動を推奨する。

・AIプロバイダー、教育者、研究者、保護者や生徒の代表者と協力し、カリキュラムの枠組みや評価方法におけるシステム全体の調整を計画し、教育や研究における生成AIの可能性を十分に活用し、リスクを軽減する。

・教育者、研究者、学習科学者、AI技術者、その他の利害関係者の代表者を含む分野横断的・学際的な専門知識を結集し、学習と知識生産、研究と著作権、カリキュラムと評価、人間の協働と社会力学に対する生成AIの長期的な影響を検討する。

・規制や政策の反復的な更新を知らせるためのタイムリーなアドバイスを提供する。

5. 教育や研究における生成AIの創造

ChatGPTが最初に発表されたとき、世界中の教育関係者は、小論文を作成する可能性や生徒・学生の不正行為を助長する可能性について懸念を表明した。最近では、世界有数の大学を含む多くの人々や組織が、「精霊は瓶から出た」のであり、ChatGPTのようなツールは今後も存在し、教育現場で生産的に使用される可能性があると主張している。

一方、インターネット上では現在、教育や研究における生成AIの活用に関する提案があふれている。新しいアイデアの着想、多視点的な事例の生成、授業計画やプレゼンテーションの開発、既存の教材の要約、イメージの創造を刺激するための利用などである。インターネット上では毎日のように新しいアイデアが生まれているが、研究者や教育者は、生成AIが教育や学習、研究にとってどのような意味を持つのか、まだ正確に理解していない。

特に、提案されている多くの利用法の背後にいる人々は、倫理原則を適切に考慮していない可能性があり、また、研究者、教員、学習者のニーズよりもむしろ生成AIの技術的な可能性によって推進されているものもある。このセクションでは、教育における生成AIの創造的な利用を促進する方法を概説する。

5.1 生成AIの責任ある創造的な利用を促進するための戦略機関

先に述べたように、教育・研究機関は、教育・学習・研究のニーズを満たすために、責任ある倫理的な生成AIシステムとアプリケーションの使用を導くための適切な戦略と倫理的枠組みを開発し、実施し、検証すべきである。これは、以下の4つの戦略によって達成することができる。

・倫理原則の制度的実施
研究者、教員、学習者が責任と倫理を持って生成AIツールを使用し、アウトプットの正確性と妥当性に批判的にアプローチすることを保証する。

・ガイダンスとトレーニング
研究者、教員、学習者に生成AIツールに関するガイダンスとトレーニングを提供し、データのラベリングやアルゴリズムにおけるバイアスなどの倫理的問題を理解させ、データのプライバシーや知的財産に関する適切な規制を遵守させる。

・生成AIの迅速なエンジニアリング能力の構築
教科固有の知識に加えて、研究者や教員は生成AIが生成するプロンプトを工学的に評価し、批判的に評価する専門知識も必要となる。生成AIが提起する課題は複雑であるため、研究者や教員は質の高いトレーニングとサポートを受けなければならない。

・生成AIを利用した課題文の剽窃の検出
生成AIは、生徒が書いていない文章を自分の作品として発表することを可能にするかもしれない。生成AIのプロバイダーは、「AIによって生成された」という透かしを入れて出力することを義務付けられており、AIによって生成された教材を識別するためのツールも開発されている。しかし、これらの措置やツールが効果的であるという証拠はほとんどない。機関としての当面の戦略は、アカデミック・インテグリティを維持し、人間による厳密な検知を通じてアカウンタビリティを強化することである。

長期的な戦略としては、教育機関や教育者が、生成AIツールが人間の学習者よりもうまくこなせる課題の評価に使用されないように、筆記課題の設計を再考することである。その代わりに、複雑な現実世界の課題への思いやりや創造性といった人間の価値観の適用など、生成AIや他のAIツールにはできない、人間にできることに取り組むべきである。

5.2 「人間中心で教育学的に適切なインタラクション」アプローチ

研究者や教育者は、生成AIを使用するかどうか、またどのように使用するかを決定する際に、人間の主体性と、人間とAIツールの間の責任ある、教育学的に適切なインタラクションを優先すべきである。これには以下の5つの考慮すべき事項が含まれる。

・ツールの使用は、人間のニーズに貢献し、ノーテクや他の代替アプローチよりも学習や研究を効果的にするものでなければならない。

・教育者や学習者のツール使用は、彼らの内発的動機に基づくべきである。

・ツールを使用するプロセスは、人間の教育者、学習者、または研究者によってコントロールされるべきである。

・学習者の年齢層、期待される結果、ターゲットとする知識(例:事実的、概念的、手続き的、メタ認知的)、またはターゲットとする問題(例:構造化されている、または構造化されていない)のタイプに基づいて、ツールの選択と構成、およびそれらが生成するコンテンツは適切でなければならない。

・利用プロセスは、人間が生成AIと高次の思考に双方向的に関与すること、およびAIが生成したコンテンツの正確性、教育または研究戦略、および人間の行動への影響に関する決定に対する人間の説明責任を保証する必要がある。

5.3 教育・研究における生成AIの利用の共同設計

教育や研究における生成AIの利用は、トップダウンのアプローチで押し付けられるべきでも、商業的な誇張表現によって推進されるべきでもない。その代わりに、その安全で効果的な使用は、教員、学習者、研究者によって共同設計されるべきである。また、様々な利用の有効性と長期的な影響を検証するために、パイロットと評価の強固なプロセスが必要である。

推奨される共同設計を促進するために、本ガイダンスは、教育学的に適切な相互作用と人間の主体性の優先順位を統合するために、以下の6つの観点から構成されるフレームワークを提案する。

・知識または問題の適切な領域
・期待される成果
・適切な生成AIツールと比較優位性
・ユーザーへの要求事項
・必要とされる人間の教育方法とプロンプト例
・倫理的リスク

このセクションでは、生成AIを使用する際の共同設計のプロセスが、どのように研究実践に情報を提供し、指導を支援し、基礎的なスキルを自分のペースで習得するためのコーチングを提供し、高次の思考を促進し、特別なニーズを持つ学習者を支援できるかの例を示す。これらの例は、生成AIが可能性を持つ領域がますます増えていることの、氷山の一角に過ぎない。

5.3.1 研究のための生成AI

生成 AIモデルは、研究の概要に関する見解を拡大し、データ探索や文献レビューを充実させる可能性を示している(表3参照)。より広範なユースケースが出現する可能性があるが、研究問題の潜在的な領域と期待される成果を定義し、有効性と精度を実証し、研究を通じて現実世界を理解する人間の主体性が AI ツールの使用によって損なわれないようにするためには、新たな研究が必要である。

5.3.2 教育を促進するための生成AI

一般的な生成AIプラットフォームの使用と特定の教育用生成AIツールの設計の両方は、授業計画、コースパッケージ、またはカリキュラム全体の教員とAIの共同設計を含む、教育方法論に関する知識と同様に、教員の教科の理解を強化するように設計されるべきである。生成AIが支援する会話型ティーチャーズアシスタント、あるいは経験豊富な教員や図書館からのデータに基づいて事前に訓練された「生成的な双子のティーチングアシスタント」*53は、いくつかの教育機関でテストされており、未知の可能性とともに未知の倫理的リスクも秘めている可能性がある。これらのモデルの実用化プロセスとさらなる反復は、本ガイダンスで推奨されるフレームワークを通じて注意深く監査され、表4に例示されるように、人間の監督によって安全に守られる必要がある。

5.3.3 基礎的スキルを自分のペースで習得するための1対1コーチとしての生成AI

学習成果を定義する際に、高次の思考力や創造性が注目されるようになってきているが、子どもたちの心理的発達や能力向上における基礎的スキルの重要性を疑う余地はない。基礎的スキルには、母国語や外国語の聞き取り、発音、書き取り、基本的な計算能力、芸術、コーディングなどが含まれる。「ドリルと練習」は時代遅れの教育法と考えるべきではない。その代わりに、学習者が基礎的なスキルを自分のペースでリハーサルできるよう、生成AIテクノロジーで再活性化し、アップグレードすべきである。倫理的、教育学的原則に導かれれば、生成AIツールは、表5に示されるように、そのような自分のペースで練習するための1対1コーチになる可能性を秘めている。

5.3.4 探究やプロジェクト型学習を促進するための生成AI

高次の思考や創造性を促進するために意図的に使用されない場合、生成AIツールは盗作や浅い「確率的オウム返し」出力を助長する傾向がある。しかし、生成AIのモデルは大規模なデータに基づいて訓練されていることから、ソクラテスの対話の相手役として、あるいはプロジェクトベースの学習における検索アシスタントとして機能する可能性がある。しかし、これらの可能性は、表6に例示されているように、高次の思考を誘発することを目的とした教育/学習デザインプロセスを通じてのみ活用することができる。

5.3.5 特別なニーズを持つ学習者を支援するための生成AI

理論的には、生成AIモデルは聴覚や視覚に障害のある学習者を支援する可能性がある。新たな実践例としては、耳の不自由な学習者のための生成AI対応字幕やキャプション、視覚障害のある学習者のための生成AI生成音声説明がある。生成AIのモデルはまた、視覚、聴覚、または言語に障害を持つ人々がコンテンツにアクセスし、質問し、仲間とのコミュニケーションを可能にするために、テキストを音声に、音声をテキストに変換することができる。しかし、この機能はまだ大規模には活用されていない。

ユネスコが2023年に実施した、政府による教育分野でのAI活用に関する前述の調査によると、障害を持つ学習者のインクルーシブ・アクセスを支援するAI支援ツールを政府機関が検証し、推奨していると報告したのはわずか4カ国(中国、ヨルダン、マレーシア、カタール)だった(UNESCO,2023c)。また、生成AIモデルの反復学習は、学習者が自国語(少数民族や先住民の言語を含む)を使用して学習やコミュニケーションを行うことを支援するよう訓練される傾向にある。

例えばGoogleの次世代LLMであるPaLM 2は、原文と訳文のペアで数百の言語をカバーする並列データで学習される。多言語の並列データを含めることで、多言語テキストを理解し生成するモデルの能力をさらに向上させるように設計されている(Google, 2023b)。

リアルタイムの翻訳、言い換え、自動修正を提供することで、生成AIツールは、少数言語を使用する学習者がアイデアを伝え、異なる言語的背景を持つ仲間とのコラボレーションを強化するのに役立つ可能性を秘めている。しかし、これは自然にスケールアップするものではない。意図的なデザインによってのみ、この可能性を活用し、周縁化されたグループの声を増幅させることができる。

最後に、生成AIシステムは会話ベースの診断を行い、学習上の問題だけでなく、心理的・社会的情緒的問題を特定する可能性も示唆されている。しかし、このアプローチが効果的で安全であるという証拠はまだほとんどなく、いかなる診断も熟練した専門家による解釈を必要とする。

6. 生成AIと教育・研究の未来

生成AI技術はまだ急速に進化しており、教育や研究に多大な影響を与える可能性が高く、まだ十分に理解されていない。したがって、教育や研究に対するその長期的な影響には、早急な注目とさらなる詳細な検討が必要である。

6.1 未知の倫理的問題

ますます高度化する生成AIツールは、詳細に検討する必要のある倫理的な懸念をさらに引き起こすだろう。セクション2および3に加えて、少なくとも以下の5つの観点から未知の倫理的問題を明らかにし、それに対処するために、より深く、より将来を見据えた分析が必要である。

・アクセスと公平性
教育における生成AIシステムは、テクノロジーや教育資源へのアクセスにおける既存の格差を悪化させ、不公平をさらに深める可能性がある。

・人とのつながり
教育における生成AIシステムは、人と人との交流や、学習における重要な社会的情緒的側面を減少させる可能性がある。

・人間の知的発達
教育における生成AIシステムは、あらかじめ決められた解決策を提供したり、可能な学習経験の幅を狭めたりすることで、学習者の自律性と主体性を制限する可能性がある。幼い学習者の知的発達に与える長期的な影響を調査する必要がある。

・心理的影響
人間のやり取りを模倣した生成AIシステムは、学習者に未知の心理的影響を与える可能性があり、認知の発達や感情的な幸福、また操作の可能性について懸念が生じる。

・隠れた偏見と差別
より洗練された生成AIシステムが開発され、教育に応用されるにつれ、モデルによって使用されるトレーニングデータや手法に基づく新たなバイアスや差別の形態が生成される可能性が高い。

6.2 著作権と知的財産

生成AIの出現は、科学的、芸術的、文学的作品の創作、頒布、消費の方法を急速に変化させている。著作権者の許可なく著作物を無断で複製、配布、使用することは、著作権者の排他的権利を侵害し、法的結果を招く可能性がある。例えば、生成AIモデルのトレーニングは著作権の侵害として訴えられている。

最近の事例では、「ドレイク」と「ザ・ウィークエンド」(エイベル・テスフェイ)をフィーチャーしたAI生成曲が数百万人のリスナーを獲得したが、著作権に関する紛争によりオフラインになった(Coscarelli, 2023)。

新たな規制の枠組みは、生成AIプロバイダーがモデルによって使用されるコンテンツの所有者の知的財産を認識し、保護することを要求することを意図しているが、生成される膨大な量の作品の所有権と独創性を判断することはますます困難になっている。このようなトレーサビリティの欠如は、クリエイターの権利の保護や知的貢献に対する公正な報酬の確保に関する懸念を引き起こすだけでなく、生成AIツールのアウトプットがどのように責任を持って使用されるかについて、教育的文脈にも課題をもたらす。このことは、研究システムに重大な影響を及ぼす可能性がある。

6.3 コンテンツと学習の源

生成AIツールは、教育・学習コンテンツを生成・提供する方法を変えつつある。将来的には、人間とAIとの会話を通じて生成されるコンテンツが、知識生産の主要な情報源のひとつになるかもしれない。これは、学習者が、人間が作成し検証したリソース、教科書、カリキュラムに基づく教育コンテンツに直接関わることをさらに弱体化させる可能性が高い。

生成AIテキストの権威的な外観は、不正確さを認識したり、効果的に質問したりするのに十分な予備知識を持たない若い学習者を惑わすかもしれない。学習者が検証されていないコンテンツに関わることを「学習」と認めるべきかどうかも議論の余地がある。

その結果、集約された二次情報に集中することになり、学習者が現実世界を直接知覚・体験し、試行錯誤から学び、実証的な実験を行い、常識を身につけるといった実証済みの方法を通じて知識を構築する機会が減少する可能性もある。また、知識の社会的構築や、共同的な授業実践を通じた社会的価値の育成を脅かすことにもなりかねない。

6.4 均質化された反応と多様で創造的なアウトプット

生成AIは、生成されるアウトプットが支配的な視点を代表し、強化する傾向があるため、複数のナラティブを狭めてしまう。結果として生じる知識の均質化は、多元的で創造的な思考を制限する。教員や生徒が生成AIツールに依存し、提案を求めるようになることで、回答の標準化や適合性が高まり、自主的な思考や自主的な探究の価値が弱まる可能性がある。

文章や芸術作品における表現の均質化の可能性は、学習者の想像力、創造性、表現の別の視点を制限する可能性がある。生成AIプロバイダーと教育者は、創造性、コラボレーション、批判的思考、その他の高次の思考スキルを育成するために、EdGPTをどの程度発展させ、利用できるかを検討する必要がある。

6.5 評価と学習成果の再考

評価に対する生成AIの影響は、学習者が筆記課題で不正行為を行うという直接的な懸念をはるかに超えている。私たちは、生成AIが比較的よく整理された論文やエッセイ、印象的な芸術作品を作成することができ、特定の教科分野の知識ベースの試験に合格することができるという事実と戦わなければならない。したがって、私たちは、具体的に何をどのような目的のために学ぶべきか、また、学習をどのように評価し検証すべきかを再考する必要がある。

教育者、政策立案者、学習者、その他の利害関係者による批判的な議論は、学習成果の以下の4つのカテゴリーを考慮する必要がある。

・価値観
デジタル時代における学習成果とその評価を再考する上で、人間中心の設計と技術の使用を保証するために必要な価値観は中心的なものである。教育の目的を見直す際には、テクノロジーと教育との関わり方を示す価値観を明確にする必要がある。この規範的なレンズを通して、学習成果とその評価・検証を繰り返し更新し、AIを含むテクノロジーの社会への浸透に対応する必要がある。

・基礎的な知識と技能
生成AIツールが人間よりも優れた能力を発揮できるコンピテンシーの領域においても、学習者は健全な基礎知識とスキルを必要とする。基礎的な読み書き能力、計算能力、基本的な科学的リテラシーのスキルは、今後も教育にとって重要であり続けるだろう。これらの基礎的スキルの範囲と性質は、私たちが生活するAIがますます豊かになる環境を反映して、定期的に見直す必要があるだろう。

・高次思考スキル
学習成果には、人間とAIの協働や生成AIが生成したアウトプットの使用に基づく高次の思考や問題解決をサポートするために必要なスキルを含める必要がある。これには、高次の思考の基礎となる事実知識と概念知識の役割を理解することや、AIが生成したコンテンツを批判的に評価することが含まれる。

・AIを使った仕事に必要な職業技能
AIが人間よりも優れた能力を発揮し、タスク単位を自動化するような領域では、人間の学習者は、生成AIツールの開発、操作、作業を可能にする新たなスキルを育成する必要がある。学習成果と教育評価の再設計は、AIによって生み出される新しい仕事に必要な職業スキルを反映する必要がある。

6.6 思考プロセス

生成AIが教育や研究に与える長期的な影響について最も基本的な視点は、やはり人間の主体性と機械の相互補完的な関係についてである。重要な疑問のひとつは、人間は基本的なレベルの思考やスキル習得プロセスをAIに譲り、むしろAIが提供するアウトプットに基づく高次の思考スキルに集中することができるのかということである。

例えば、文章を書くことは、しばしば思考の構造化と関連している。生成AIを使えば、一連のアイデアの目的、範囲、概要をゼロから計画するのではなく、人間は生成AIが提供する十分に構造化された概要から始めることができる。一部の専門家は、このように生成AIを使ってテキストを生成することを、「考えることなく文章を書く」ことだと評している(Chayka,2023)。

このような新しい生成AI支援の実践がより広く採用されるようになると、ライティングスキルの習得と評価のための確立された方法は適応する必要がある。将来的には、ライティングの学習は、生成AIのアウトラインに基づく共同執筆だけでなく、プロンプトの計画や構成、生成AIのアウトプットに対する批判的評価、高次の思考といったスキルの構築に重点を置くという選択肢もある。

おわりに

人間中心のアプローチの観点から、AIツールは人間の知的能力や社会的スキルを拡張・増強するように設計されるべきであり、それらを損なったり、対立したり、簒奪したりすべきではない。AIツールは、より包摂的で持続可能な未来のための分析と行動をサポートするために、人間が利用できるツールの一部として、さらに統合されることが長い間期待されてきた。

AIが、個人レベル、組織レベル、システムレベルにおいて、人間と機械の協働の信頼できる一部となるためには、AIの倫理に関する2021年ユネスコ勧告によって知られている人間中心のアプローチを、生成AIのような新興テクノロジーの特定の特徴に従ってさらに特定し、実施する必要がある。このようにして初めて、生成AIが研究者、教員、学習者にとって信頼できるツールとなることを保証できる。

生成AIは教育や研究のために使われるべきだが、生成AIがこれらの領域で確立されたシステムやその基盤をも変えてしまう可能性があることを、私たち全員が認識する必要がある。
生成AIによって引き起こされる教育や研究の変革は、もしあるとすれば、厳格に検討され、人間中心のアプローチによって舵取りされるべきである。そうすることでしか、とりわけAIの可能性、そしてより広く教育で使用される他のすべてのカテゴリーのテクノロジーが、人間の能力を高め、すべての人にインクルーシブなデジタル未来を築くことを保証することはできないのである。

脚注


1  生成AIモデルは、ChatGPTよりもずっと早く研究者やその他の関係者が利用できるようになった。例えば、2015年にグーグルは「DeepDream」と呼ばれるものをリリースした。
2 See https://chat.openai.com
3  AIのテクニックとテクノロジー、そしてそれらの関係についての説明はこちら。UNESCO, 2022b, pp. 8-10.
4 生成AIはまだ比較的新しいものであるため、企業によってこれらの用語の使い方が異なることが多く、同じことを意味するのに異なる言葉を使うこともある。
5  将来のOpenAI GPTの反復学習に使用されるデータには、以前のバージョンのGPTによって生成された大量のテキストが含まれることが懸念さ れる。この自己参照的なループが学習データを汚染し、将来のGPTモデルの能力を損なうかもしれない。
6 この表のGPTを開発したOpenAI社は、GPT-4に関する詳細な情報を公表していない(The Verge, 2023a)。実際、パラメータの数はOpenAIのCEOによって否定されている(The Verge, 2023b)。しかし、ここに含まれる数値は、多くのアウトレットによって報告されている(例えば、E2Analyst, 2023を参照)。いずれにせよ、GPT-4はGPT-3よりも膨大なデータセットに基づいて構築され、膨大な数のパラメーターを使用していることが主な要点である。
7 See https://crfm.stanford.edu/2023/03/13/alpaca.html
8 See https://bard.google.com
9 See https://writesonic.com/chat
10 See https://yiyan.baidu.com/welcome
11 See https://huggingface.co/chat
12 See https://www.jasper.ai
13 See https://ai.facebook.com/blog/large-language-model-llama-meta-ai
14 See https://open-assistant.io
15 See https://www.alizila.com/alibaba-cloud-debuts-generative-ai-model-for-corporate-users
16 See https://you.com
17 See https://www.chatpdf.com
18 See https://elicit.org
19 See https://www.perplexity.ai
20 See https://tools.zmo.ai/webchatgpt
21 See https://www.compose.ai
22 See https://www.teamsmart.ai
23 See https://wiseone.io
24 See https://www.microsoft.com/en-us/bing
25 See https://www.craiyon.com
26 See https://openai.com/product/dall-e-2
27 See https://dream.ai/create
28 See https://www.fotor.com/features/ai-image-generator
29 See https://www.midjourney.com
30 See https://creator.nightcafe.studio
31 See https://writesonic.com/photosonic-ai-art-generator
32 See https://elai.io
33 See https://www.gliacloud.com
34 See https://pictory.ai
35 See https://runwayml.com
36 See https://www.aiva.ai
37 See https://boomy.com
38 See https://soundraw.io
39 See https://www.voicemod.net/text-to-song
40 See https://openai.com/research/gpt-4
41 See https://www.educhat.top and https://www.mathgpt.com
42 See https://www.educhat.top
43 See https://www.mathgpt.com
44 オープンソースのAI開発に特化したグループ「Hugging Face」のような例外もいくつかある。
45 例えば、グーグル(2023a)やOpenAI(Bass and Metz, 2023)からの呼びかけを参照
46 AIを規制するプロジェクトのひとつとしては、欧州委員会のAI法(2021年)を参照
47 このレビューは、ユネスコの193の加盟国に配布された、教育におけるAIの政府利用に関する調査(UNESCO, 2023c)、OECD AI Policy Observatory、スタンフォード大学のAI指数報告書(Stanford University, 2023)、および国際的な専門家グループから引き出した直接の情報から収集したデータに基づいている。
48 See https://unctad.org/page/data-protection-and-privacy-legislation-worldwide
49 2023年4月現在、以下の国々がAIに関する国家戦略を発表している: アルゼンチン、オーストラリア、オーストリア、ベルギー、ベナン、ブラジル、カナダ、ブルガリア、チリ、中国、コロンビア、キプロス、チェコ、デンマーク、エジプト、エストニア、フィンランド、フランス、ドイツ、ハンガリー、アイスランド、インド、インドネシア、アイルランド、イタリア、日本、ヨルダン、ラトビア、リトアニア、ルクセンブルグ、マレーシア、マルタ、モーリシャス、メキシコ、 オランダ、ノルウェー、ニュージーランド、オマーン、ペルー、ポーランド、ポルトガル、フィリピン、カタール、大韓民国、ルーマニア、ロシア連邦、サウジアラビア、セルビア、シンガポール、スロベニア、スペイン、スウェーデン、タイ、トルコ、チュニジア、アラブ首長国連邦、英国、米国、ウルグアイ、ベトナム。さらに、アルジェリア、ボツワナ、カザフスタン、ケニア、シエラレオネ、スロバキア、スイス、ウガンダなど、より広範なICT戦略やデジタル戦略にAI戦略を組み込んでいる国もある。
50 各国のAI戦略の迅速なレビュー(UNESCO, 2023b)によると、40以上の戦略で倫理の問題に特化したセクションが設けられている。
51 すべての国のAI戦略の迅速なレビュー(UNESCO, 2023b)によると、約45の戦略に教育問題の専用セクションがある。
52 See https://openai.com/policies/terms-of-use
53 国によっては、教員がティーチング・アシスタント(TA)を持ち、その役割 は、授業で扱われる教材について、個々の生徒の質問に答えることに時間を費やすことである。生成AIは、TAの生成的な双子を開発するために使用されるかもしれない。TAは、生徒や他の教員のサポートになる可能性があるが、いくつかの否定的な問題(例えば、教室内の社会的な関係)を引き起こす可能性もある。

この記事が気に入ったらサポートをしてみませんか?