見出し画像

【AI】生成AIとクラウド例外

クラウド例外とは

一部関係者の間で白熱した(?)議論が交わされた生成AIにおけるクラウド例について取り上げてみたいと思います。

この問題は、生成AIに「個人データ」を入力する場合に「提供」にあたるのかという問題です。

個人データを第三者提供する場合には原則として本人同意やオプトアウト手続をとる必要があります。もっとも、例外として、「クラウド例外」に当たる場合には「第三者提供」と解されません(Q&A7-53)。その結果、本人同意やオプトアウト手続をとる必要がなくなります。

Q&A7-53は、個人データの第三者提供について、「当該クラウドサービス提供事業者が、当該個人データを取り扱わないこととなっている場合には、当該個人情報取扱事業者は個人データを提供したことにはならないため、『本人の同意』を得る必要はありません。」とし、「当該クラウドサービス提供事業者が、当該個人データを取り扱わないこととなっている場合」とは、「契約条項によって当該外部事業者がサーバに保存された個人データを取り扱わない旨が定められており、適切にアクセス制御を行っている場合等が考えられます。」としています。

これが「クラウド例外」と呼ばれているのものですが、法令に規定されているものではなく、個人情報保護委員会の解釈として示されているものです。なお、「クラウド例外」という呼び方も誤解を招くので適切ではないのではないかという疑問を呈する意見もありますが、専門家間の議論では誤解する人は少ないでしょうし、呼称としては便利なので本稿ではこの用語を使います。

クラウド例外に関する論考

このようなクラウド例外について論じたものとして以下があげられます。

です。いずれも力作で参考になります。

杉浦ブログでは、クラウド例外について、厳格説(岡村久道著『個人情報保護法第4版』313頁)と弾力説(岡田淳ほか「連載 個人情報保護をめぐる実務対応の最前線 第15回 AIと個人情報・プライバシー」(NBL1208号)52頁)があり、杉浦先生としては厳格説で実務に携わってきたと述べています。
世古ブログでは、「SaaSの場合、提供されるサービスの内容次第であるものの、一般にクラウド例外の適用は難しいと考えられる」と述べられています。
小川NBLでは、「SaaSの場合、提供されるサービスの内容次第であるものの、一般にクラウド例外の適用は難しいと考えられる。もっとも、クラウド例外を従来よりも拡張解釈する事例もあり、今後の動向にも留意が必要である」と述べられています。

生成AIとクラウド例外

クラウド例外一般については上記の素晴らしい論稿があるので、本稿では生成AIとクラウド例外について考えてみます。生成AIはいくつかのパターンがあります。それらをごっちゃにするのは正確性に欠けると思われます。

生成AIの内容1➖SaaS的生成AIとPaaS的生成AI

生成AIには、大別して、ChatGPTのようなSaaSのサービスと、クラウド上において、ユーザが選択した生成AIにデータを学習させるPaaS的(あるいはIaaS的)なサービスの2種類があります。SaaS形式では機密情報を入れ難いとか、最適なAIを選択したり、ファインチューニングしたいというニーズがあることから、今後は、ユーザ企業が、クラウド事業者が提供するクラウド上に、自らが選択した生成AIを構築し、データを入れて学習させるPaaS型も増えてくると思います。

SaaS型もPaaS型も色々あるのでケースバイケースですが、前者と後者では、プロバイダーのユーザデータに対する関与(取扱い)の仕方が異なるので、同列に扱うことはできないと考えられます。
ChatGPTが著名なため、多くの人はChatGPTのようなSaaSを念頭に論じて傾向があるように思われますが、PaaSではアプリ領域(生成AI)はユーザが管理するので、両者の違いを意識することは重要と思います。小川NBLでも、「一般にIaaSやPaaSの場合にはクラウド例外が適用できる…と考えられてきた」とあります。

SaaSの場合には、いろいろなサービスがあるとしても、基本的にはベンダがアプリをコントロールし、データにアクセスして処理するので、幅広くクラウド例外の適用も認めるわけにはいかないと思います。上記の各論稿でもSaaSではクラウド例外の適用は難しいという意見が占めています。
もっとも、SaaSの中でも、ベンダがユーザデータに、例外的な場合を除き(あるいは全く)、触れない場合にはどうか、という点が問題になります。

生成AIの内容2➖生成 AIがベンダが生成AIの開発・学習用に利用されるか否か

生成AIは、生成 AIがベンダが生成AIの開発・学習用に利用されるか否かで分けることができます。

生成 AIには、ユーザが生成AIに入力したデータを、ベンダが生成AIの開発・学習用に「利用する」場合があります(PaaSを選択するユーザはこのようなものは通常利用しないとは思いますが)。この場合には、ベンダがユーザデータを取扱っており、クラウド例外に該当しないことは明らかでしょう。

他方、ベンダがユーザデータを生成AIの開発・学習用に「利用しない」場合で、かつベンダがデータの内容に全くアクセスしない場合、ベンダはユーザデータを取扱っているといえるのでしょうか。

小川NBLは、(SaaSを前提として)「入力した情報をもとに分析を行い、出力をする過程を経る場合は、たとえそれが人間の目に触れないとしても、『提供』に該当するという考え方が一般的であった。」と述べています。
また、個人情報保護委員会は、

「取り扱わないこととなっている場合」に該当するかについては、クラウドサービス の具体的な仕様や契約条項等を考慮した上で個別の事案毎に判断する必要があるた め、一律の回答をお示しすることは困難です。ただ、一般論として、当該クラウドサービス 提供事業者が、サーバに保存された個人データに対して編集・分析等の処理を行う場合 には、当該クラウドサービス提供事業者が当該個人データを「取り扱わないこととなって いる場合」には該当しないと考えられます。

 規制改革・行政改革ホットライン検討要請項目の現状と対応策(令和4年度回答)No307

と述べ、ケースバイケースとしつつも、一般論としては、クラウド事業者が個人データを閲覧しないとしても、編集・分析等の処理を行う場合には、クラウド例外にはあたらないという見解を示しています。

しかし、ユーザがサーバ上においてある生成AIのプログラムにデータを投入し、ベンダがデータの内容を全く知らずして、ユーザが生成結果を得るのであれば、ベンダはユーザデータを取扱っていないと評価する余地は十分あるのではないでしょうか。そのような場合に、個人データについて本人に対する悪影響があるようには思われず(見方によりますが)、第三者提供の規制を及ぼす必要性がないように思います。
データをクラウドに保存する場合にも、実際は様々なプログラムが動いているので、コンピュータで全てのデータが自動処理されている場合に、データ保管と生成AIによる処理を区別する根拠はないように思われます。

このような見解に立った場合には、上記個人情報保護員会の回答については、あくまで一般論にすぎないすぎず、個別事案では異なるとするか、上記回答の射程範囲を限定して考えるか、変更されることを期待することになろうかと思います。

生成AIの内容3➖生成AIの不正利用を人間が監視しているか否か

生成AIには、不正利用を人間が監視しているか否かで分けることもできます。

メジャーな生成AIは、「爆弾の作り方」「ウイルスの作り方」などの質問に対して回答しないようにフィルタリングがされているのが一般的です。個人情報の入力や個人情報を出力させようとする質問に対しても同様です。
もっとも、「ジェイルブレイク」といった不正に生成AI から回答を引き出そうというハッキング類似の行為をする人がいます。そこで、生成AIのベンダは、そのような不正利用行為がないかを人間によって監視することがあります。ハッカーとの攻防はいたちごっこであり、人間のモニターが有効です。
なお、生成AIのサービスの中には、データをベンダに見られたくないというニーズに応えて、人間によるモニターを外せるオプションがあるサービスもあります。

問題は、人間が不正行為を監視しているサービスを利用すると「外部事業者がサーバに保存された個人データを取り扱う」ものとして、クラウド例外ではなくなってしまうのか、という点です。

この点、データ保管の場合には、Q&A7-55には、保守サービス事業者が「サービス内容の全部又は一部として情報システム内の個人データを取り扱うこととなっている場合」にはクラウド例外にあたらないとする一方で、「単純なハードウェア・ソフトウェア保守サービスのみを行う場合で、契約条項によって当該保守サービス事業者が個人データを取り扱わない旨が定められており、適切にアクセス制御を行っている場合等には、個人データの提供に該当しません。」と述べられています

結局、ここでも何が「取り扱い」と言えるかが問題となりますが、人間によるモニターがされる場合には単純な保守サービスとはいえないので、クラウド例外に当たらなくなってしまうようにも読めます。
また、ベンダが、インシデント対応など例外的にアクセスする場合には、平時において「取り扱っている」と解さないとされていますが、生成AIにおける人間によるモニターは恒常的になされるのが通常なので、インシデント対応とは違う面もあります。

もっとも、ここで矛盾を感じるのは、人間による不正利用防止のためのモニターは、個人情報の入出力の不正利用を防ぐためにされているのに、クラウド例外にならないとなると、多くの企業は人間によるモニターを外す選択をするようになり、個人情報を悪用するための試みがかえって広がってしまいかねないことです。
個人情報を守るべき個人情報保護法が、個人情報の悪用などの不正行為を防止しようとする活動を抑止してしまうことになるのは、腑に落ちない気がします。

クラウド例外という珍しいルールがあるが故に、日本だけが不正利用のモニタリングにディスインセンティブが働き、他の国では不正利用の抑止ができているのに、日本だけが「不正利用パラダイス」になってしまっては目も当てられませんし、国際的な非難の対象にもなりかねません。また、日本における生成AIの利活用にも大きな悪影響が出ることが懸念されます。

また、ベンダが、人間による不正利用防止のためのモニターしたとしても、マーケティング目的で解析するといった場合と異なり、本人の個人データそのものを解析しているのではなく、実質的な悪影響はないように思われます。

この点、不正利用の監視については、個人情報保護法27条1項2号の「人の生命、身体又は財産の保護のために必要がある場合であって、本人の同意を得ることが困難であるとき。」にあたるとして、本人同意が不要という構成をとることは一応は考えられます。

現時点で、個人情報保護委員会の見解は明らかになっていませんが、今単に文言解釈や従来の実務に従うのではなく、最終的に、何が個人情報の保護につながるのかという大局的な視点が必要なように思います。

個人情報保護委員会の見解

個人情報保護員会は、生成AIへの個人データの入力について、以下の見解を示しています。

生成 AIへの個人データの入力について、個人情報保護員会は「生成 AI サービスの利用に関する注意喚起等」には以下の記載がされています。

1(1)②  個人情報取扱事業者が、あらかじめ本人の同意を得ることなく生成AIサービスに個人データを含むプロンプトを入力し、当該個人データが当該プロンプトに対する応答結果の出力以外の目的で取り扱われる場合、当該個人情報取扱事業者は個人情報保護法の規定に違反することとなる可能性がある。

このように、「当該個人データが当該プロンプトに対する応答結果の出力以外の目的で取り扱われる場合」に、第三者提供にあたると述べられています。そこで、この記載の反対解釈から、上記以外の場合には第三者提供にあたらない(=本人同意は不要)と述べていると解する余地もありますが、文章の書き振りからして、そこまで読み込むことはできないように思われます。
小川NBLの曽我部教授のコメントも、

結論的には、サーバに保存された個人データに対して編集・分析等の処理を行う場合には「取扱い」があるとする、本文で別途紹介されている個人情報保護委員会の見解が妥当だろう。上記「注意喚起等」は、現時点で特に問題となる点を指摘したものにとどまると理解すべきではないか。
そして、応答結果を得る目的での生成AIへの個人データの入力の適法性については、今後、別途検討をしていく必要があろう。

と述べられています。

なお、曽我部教授のコメントの最終文には「応答結果を得る目的での生成AIへの個人データの入力の適法性については、今後、別途検討をしていく必要があろう。」とあり、オープンな形で締めくくられています。

まとめ

現状、生成AIにおけるクラウド例外の適用については、クラウド例外について厳格説と緩和説があり、個人情報保護委員会による明確な見解が示されていない現状では、明確ではない状況にあるといえます(それゆえ、関係者がいろいろと議論できる余地があるわけですが)。

個人的には、生成AIの不正利用を防止することは、生成AIが社会で問題を起こさないために重要であり、生成AIの不正利用を助長しかねない解釈がされることは望ましくないと考えています。生成AIの不正利用が広がれば、生成AIの利活用・発展を阻害することにもなってしまいます。さまざまな解釈論が議論されている現状ですが、個人情報保護法の解釈に当たっては、このような観点もあってもよいと思います。

今後、関係者間で議論が進んだり、将来的に、個人情報保護委員会がガイドラインや Q&Aを作ることになるかもしれませんが、作るとなった場合には、生成AIの実態を踏まえたもので、かつ個人情報を守ることに資するような内容になって欲しいと願っています。


この記事が気に入ったらサポートをしてみませんか?