パブリックコメント 2024/02/19

2024/02/19 23:59まで募集していた、
パブリックコメント「AI事業者ガイドライン案」に書いた内容です。

記録として残しておくだけのものです。


「本編」3P:アジャイル・ガバナンス

未来を予想しにくいAIに対して、
細かいアップデートを続けるアジャイルを取り入れるのは良いと思います。
書かれている通りマルチステークホルダーの関与が正しく機能するならば。

今までも有識者会議みたいなものは行われているようですが、
最低限ジブリ、集英社、任天堂など、
デジタル貿易で黒字部分を担う知財の最先端の方々を加えるべきでしょう。

「DXの遅れを巻き返そう」などと言いながら、
黒字だった部分まで赤字側に巻き込んだら元も子もないのですから。


15P:2)安全性
18P:7)アカウンタビリティ
23P:D. 高度な AI システムに関係する事業者に共通の指針

この辺り、ガイドラインとしては良いと思います。
ただ現時点でこのガイドから外れているもの、
とりわけ生成AIに多いですが、そのような物に対して、
今後どのような態度で臨むかの言及も必要だと思います。

ガイドを逸脱してもお咎めなしなら、
ルール無用で好き放題したもの勝ちを許し、
ガイドラインの存在意義も失われると思いますので。

海外製含めガイドを逸脱するAIは、
国内市場からの締め出しを講じる場合もある。
そのくらいは書いても良さそうに思います。


27P:データ前処理・学習時

「~適正に収集するとともに、第三者の機密情報、個人情報、知的財産権に留意が必要なもの等が含まれている場合には、法令に従って適切に扱うことを、AIのライフサイクル全体を通じて確保する」

倫理観の無い学習を防ぐために、この記述を盛り込むのは良いと思います。
ただ、文言は曖昧に感じます。

その法令、著作権の話でも。
生成AIに関しては、現状は結果的に学習元と競合する市場において、
享受目的で利用される場合が殆どであるにも関わらず、
そのようなユーザーに都合よく解釈され、
既存文化の価値を毀損するような濫用が横行しています。

「法令に従って適切に扱う」とは、どういう事なのか。
悪用を防ぐために考慮すべき「適正な収集」とはどういった収集なのか。
使用者側の倫理観で賄うべき側面もありますが現状を鑑みれば、
ガイドラインとしては、もう少し踏み込んだ言及が必要だと感じます。


「本編」32P:AI システム実装時

「関連するステークホルダーの生命・身体・財産、
精神及び環境に危害を及ぼすことがないよう」に、
「提供者」側の責任にも言及されている事は、良いと思います。

しかし、ロボティクスなどの物理的な事例のみが記述され、
現時点でも既に起きている財産や精神への被害の事例、
その防止や救済方法が示されていません。

13Pから書かれているような「人間中心」を指針に置くならば、
弱者を生じさせず、とするのならば。

著作や音声などのフリーライドで虐げられる、
「新たな弱者を生じる」状況を生み出し続けない為のガイドラインを、
しっかりと提示すべきだと思います。


「本編」35P:AI利用者に関する事項

「AI提供者が意図した範囲内で継続的に適正利用及び必要に応じてAIシステムの運用を行うことが重要である。」

ガイドラインとしては適切な提示だと思います。
ただし、これから出てくる技術へのガイドラインの適切さなので、
生成AIに関しては現実既に大きく逸脱しているものを、
どのようにガイドラインの内側にに収めていくのかが不透明です。

ガイドラインでガイドラインの守らせ方に
言及するのは変かもしれませんが、
「別添」などもあるので、
ガイドラインの強制力の持たせ方には言及が欲しい所です。

先行する問題に効果が出ないのであれば、
後出しのガイドラインの存在意義が問われることになると思います。


「別添」13P:生成 AI による可能性

本編に関しては基本的に肯定的なのですが、別添は何なのでしょう。
特にこの部分は、何故ガイドラインに必要なのか?
個人的なイデオロギーの押し付けにしか見えません。

「巻き返しの可能性」:
事実に基づかない希望的観測をガイドラインとして断定的に語るのは
如何なものでしょうか。

「AI活用の促進が可能」「回答システム~」:
AIを促進することがゴールではありませんし、
それが良い結果をもたらすという論拠があまりにも希薄です。

「グローバルの競争を勝ち抜く~」:
クラウドでITが大きな貿易赤字を計上している状況で、
現状海外製しかない生成AIへの積極性に
「勝ち筋」を見る客観性の無さに驚きます。

このように記述者個人が恣意的に、
先端技術全肯定のイデオロギーを
読者に押し付けるためだけに書かれたものとしか感じられず、
ガイドラインとして余りに不適切です。


「別添」13P:AIによるリスク

本編に対する「別添」のドキュメントの役割は分からないのですが。

本編では誰一人、「弱者」もとりこぼさない、という理念にも関わらず、
コチラでは、リスクは「あくまで一例として認識」することが望まれ、
それを理由に利用は妨げず、把握しつつ利用促進しよう、という内容です。

網羅出来ていないと書いているにも拘らず、
このような態度を取るのはリスクの矮小化ではないでしょうか。

ガイドラインが出る前に、
データセット内にCSAMが存在した事も明らかになり、
ディープフェイクによる誤情報拡散、詐欺、ポルノ被害、
著作物のフリーライドも増え、生成AIによる被害者、
「新しい弱者」が生み出され続ける中で。

「イノベーションの為に、少数被害者にはある程度目を瞑って進もう!」
とも受け取れる文言で展開される内容は、
「人間中心」とする本編との強い矛盾を感じます。


この記事が気に入ったらサポートをしてみませんか?