個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」について
令和5年6月2日付けで、個人情報保護委員会がChatGPT等を提供するサービス事業者に対して注意喚起をした!という見出しが躍り、生成AIを業務に活用すべく推進している身としては、たぶん内容について聞かれるだろうから自分なりにまとめた。
個人情報保護委員会が書いたこと
鑑文
ChatGPTに代表される生成AIについて、利用に関する注意事項を別添1に、サービスの提供もしくは開発元には別添2に記載のとおり注意喚起を行った。
別添1(利用者に対する注意喚起)
個人情報取扱事業者・行政機関
個人情報をプロンプトに入力する場合は、個人情報の利用目的範囲内であることを確認する
本人の同意なく個人情報をプロンプトに入力する場合は、そのデータが学習にに使われないように十分に確認すること。学習に使われた場合は、個人情報保護法の規定に違反する可能性がある
一般利用者
生成AIに個人情報を入力した場合は、出力される結果が不正確の場合があるので、そのリスクを踏まえて利用すること
生成AIサービスを提供する事業者の利用規約やプライバシーポリシー等を確認した上で、利用すること
別添2(サービス提供事業者に対する注意喚起)
本人の同意を得ずに、要配慮個人情報を取得しないこと(法第20条第2項各号に該当する場合を除く)
機械学習する際に要配慮個人情報を含めないようにすること
収集した情報に含まれる要配慮個人情報をできる限り減らすような措置をとること
1及び2の処置した後もなお、要配慮個人情報が含まれる場合は、学習データに加工する前に、要配慮個人情報を削除するか識別できないようにすること
本人もしくは個人情報保護委員会等が、要配慮個人情報を収集しないように要請又は指示した場合、指示に従うこと
利用者が、機械学習に使われないことを選択した場合、プロンプトに入力した要配慮個人情報は、理由がない限り取り扱わないこと
利用者及び利用者以外の個人情報の利用目的について、双方に日本語で通知又は公表すること
結局何がいいたいのか
サービス利用者
個人情報をプロンプトに入力する場合は、利用目的内か確認して使用する
個人情報を学習に使われるか確認して使用する
出力された内容は不正確な場合があるので確認して使用する
サービスの利用規約等を確認して使用する
サービス提供者
要配慮個人情報を収集するな、した場合は削除か識別できないようにすること
本人か個人情報保護委員会か要請したら、その指示に従うこと
恐らくいろんな人が思った・期待したこと
国(個人情報保護委員会)が、ChatGPT等の利用を規制した
画像・音声・映像系AIの利用に規制が入り、著作権が守られる
AIはやはり危険なものである
自分もそういう表明を出したのかと思った。違ったね(´・ω・`)
個人的見解
利用者については、今までいろんな人が言われている
AIは嘘をつくこともあるから、出力の正確性を確認する必要がある
入力データを学習に使われているかどうかを確認する必要がある
に相当すると思っており、特段目新しい注意喚起ではないなという印象です。むしろ今更言及するのか(触れないわけにはいかないでしょうが)と思ったほどです。
ところで、個人情報ないし要配慮個人情報の入力については、「学習に使用されなければ問題ない」と読めてしまうんですが、そもそも学習に使用しない個人情報や要配慮個人情報って、どういう利用場面を想定しているんでしょうか。
サービス提供事業者については、今更要配慮個人情報を取得するな、学習前に削除しろ。と個人情報保護委員会は訴えています。
これからサービスを作る場合は、いいかもしれませんが、すでに学習を終えたモデルについてはどのようにするのでしょうか。
LLMに詳しくなく、学生の時にNNを使っていたので、NNと同じと想定すると、教師データを学習し終えたパラメータから、特定の情報だけを抜いたパラメータなんて作れないので、再学習が必要と考えます。
GPT3.5,4のようなモデルでは、そんな気軽に再学習なんてできるのでしょうか。結局、出力時に要配慮個人情報があるかどうかを判断するだけになる?
また、個人情報保護委員会は、「学習に使用してはならない」と記載しています。これは、自社でAIを構築する場合のファインチューニングのことは想定しているのでしょうか。委託の場合は、第3者提供に該当する?利用目的の範囲内なら問題なさそうですが、以下の疑問が出てきました。
自社構築できた場合、個人情報や要配慮個人情報の閲覧範囲に注意が必要となってくると思います。Aという課で取得した個人情報や要配慮個人情報を学習に用いたモデルを用いて、自社に展開した場合、まったく関係の無いB課が回答を得たりすることができる可能性もあります。
結局は、利用範囲(課ごとや事業ごと)ごとにAIモデルを構築するしかないのかな?
話は変わって、本人や個人情報保護委員会が要請した場合に、要配慮個人情報を削除するなどの指示に従うこととされていますが、これもどうなんでしょう。個人情報保護委員会にそこまでの権限がないと思いますし、そもそもそのような権限や対応が可能ならば、学習元のデータを削除するように動くべきだと思います。ただまあ爆発的に増えているデータの制御なんか無理でしょうが…(消すと増える法則)
個人的には、そのような介入が可能となった場合、AIの回答そのものの信頼性がなくなることはないのでしょうか。学習元のデータや学習内容のデータが意図的に変更できてしまうと、それはそれでいろんな悪影響が出ると思います(陰謀論は信じませんので、何かは書きませんが)。
結局のところ、「ユーザが気を付けろ」「個人情報/要配慮個人情報を入力するな」としか言えないなあと感じました。サービス事業者は利用規約等でしか判断できませんしね…
もう一つ、著作権については、以下の文化庁のセミナーを聞いて勉強しようと思います。
要配慮個人情報とは?
要配慮個人情報とは、「本人の人種、信条、社会的身分、病歴、犯罪 の経歴、犯罪により害を被った事実その他本人に対する不当な差別、偏見その他の不利益 が生じないようにその取扱いに特に配慮を要するものとして政令で定める記述等が含ま れる個人情報」
https://www.ppc.go.jp/files/pdf/280603_siryou1.pdf
個人情報保護法第20条第2項
個人情報保護法第20条第2項は、各号に示されている特別な状況ではない限り、本人の同意なしで要配慮個人情報を取得してはならないとされています。
この記事が気に入ったらサポートをしてみませんか?