見出し画像

2章|生成AIに関する論争と教育への影響|ユネスコガイダンス要約

2.1 デジタル貧困の悪化

生成AIは膨大なデータと高度なコンピューティング能力を必要とし、そのリソースは主に先進国(欧米と中国)に集中しています。
これにより、途上国や経済的に不利な地域のデジタル格差が広がっています。
また、生成AIが先進国の価値観に基づいて訓練されているため、地域に適したAIの開発が妨げられています。

2.1要約

(補足)これまでもデジタル貧困は指摘されてきたが、ワード、エクセルなどのオフィスソフトをやめて、無料のオープンオフィスソフトにするといったレベルの対応では済まない。エルゼビアなどが途上国の論文投稿料を下げているように、生成AIの企業がデジタル貧困と格差にどこまで配慮するのか?

(補足)先進国、グローバルノースの価値観:先進国や経済的に発展した国々に特有の価値観や文化的特徴。個人の自由や民主主義、市場経済、技術革新への重点などを含む。生成AIの訓練(学習)は基本的に先進国の価値基準でデータを収集が行われ、システムが構築されている。例えばデータとプライバシーの関係は、個人主義と全体主義、共産主義では大きく異なる。
多元的な価値観、研究や教育に特徴的な価値観をどのようにツールとしての生成AIに持ち込むかが問われる。

2.2 国家規制の適応の遅れ

主要な生成AIプロバイダーは独自の技術を保護し、独立した学術的レビューに対する透明性が欠如しています。さらに、生成AIの急速な発展に対する法的規制の遅れが、国や地方の機関による適切な管理を困難にしています。

2.2要約

2.3 同意なしのコンテンツ使用

(補足)
生成AIはウェブ上のデータを学習しているが、その学習元のデータは基本的には不明で、どのソースがどの程度含まれているかが明らかではない。
学術的に不正確な内容も学習されている。
例えば生成AIを用いて作成されたレポートを、生成AIを用いた採点アシスタントツールで評価すると、レポートの内容の事実関係の評価ができないことがある。

(補足)
研究上のデータ収集時にはインフォームドコンセントや著作権を含め、被験者やデータ所有者の権利を保護する必要があるが(2.3コラム)、生成AIを用いた場合にそもそもどこからデータを収集したか、そのデータをどのように処理したかがブラックボックス(2.4)という問題がある。

2.5 インターネットを汚染するAIによる生成コンテンツ

インターネットからのGPTの訓練データにはしばしば差別的な言語が含まれており、開発者が「ガードレール」と呼ぶ制限を導入しても、GenAIによって生成されたバイアスのあるコンテンツがインターネット上で広まっている。
特に若い学習者にとってリスクが大きい。

2.5要約

(補足)この生成AIが本質的にもつバイアスに気づく「教養」は生成AIリテラシーとして重要だろう。

2.6 現実世界の理解の欠如

生成AIは現実世界の観察や科学的手法の他の重要な側面に基づいておらず、人間や社会の価値観とも一致していません。そのため、生成AIは現実世界、物体およびその関係、人々と社会的関係、人間と物体の関係、人間と技術の関係について真に革新的なコンテンツを生成することはできません。生成AIモデルによって生成される表面上の革新的なコンテンツが科学的知識として認識されるかどうかは議論の的となっています。

2.6要約

2.7 意見の多様性の低下と、既に周縁化されている声のさらなる周縁化

ChatGPTや同様のツールが所有者や作成者の価値観を前提とした標準的な回答のみを出力する傾向があり、意見の多様性やアイデアの多様な表現の発展が制限される可能性があることが述べられています。
特に、データ貧困な人々や周縁化されたコミュニティは、オンライン上でほとんど存在が認識されず、彼らの声が出力に反映されないことがリスクとされています。
研究者、教師、学習者は生成AIの出力を批判的に評価し、少数派の声が訓練データにあまり含まれていないために見落とされる可能性があることを認識する必要があります。

2.7要約

(補足)ネット上に声を上げない限り「ない」ものとして扱われ、データにアクセスできない人、ネット上で周辺部に位置するコミュニティの価値観が無視される。これは今の問題だけでなく、生成AIが訓練を繰り返すことで強化され、価値が固定化されることが大きなリスク。
例えば生成AIに「関西弁で出力」はできるが、「土佐弁で出力」はできない。
また偽情報を意図的に多くweb上にばらまくことで、生成AIの価値観を特定の方向に誘導することも技術的には可能。

2.8 ディープフェイクのさらなる深化

生成AIはこれらの「ディープフェイク」やいわゆる「フェイクニュース」の作成をますます容易にしています。つまり、特定の行為者が偽情報の拡散、ヘイトスピーチの推進、人々の顔を彼らの知識や同意なしに完全に偽の映画に取り込むなどの非倫理的で不道徳な犯罪行為を行いやすくしています。
生成AIプロバイダーの義務は、ユーザーの著作権と肖像権を保護することですが、研究者、教師、学習者もインターネット上で共有する画像が生成AIの訓練データに組み込まれ、非倫理的な方法で操作されて使用される可能性があることを認識する必要があります。

2.8要約

(補足)最悪なのは、研究者が偽のデータ、意図的に生成された誤った情報、フェイクの動画や画像、ニュース、書籍に基づいて論文を書いてしまうことだ。

(補足)それだけではなく、自分が発表した文書、画像、データなどが、非倫理的な生成AIに学習されてしまう可能性も認識しないといけない。
様々な規制や対応が検討されているが、現状、自分の著作物が生成AIに学習されることを避けたければ、基本的には「学習させないで」と表明するか、本当に嫌ならweb上に上げないという対策しかない。
これは2.1や2.3で指摘されている特定の価値観が優先されるという問題、つまり「web上にあるものはみんなのもの」という価値観が優先された結果であろう。


この記事が気に入ったらサポートをしてみませんか?