見出し画像

松尾豊教授のAI無知倫理問題:個人情報保護委員会がOpenAIを行政指導

 今回は、この記事に関して一般読者向けに分かりやすく解説していきたいと思います。

 日本の個人情報保護委員会の行政指導の対象となったのは、OpenAIが開発したChatGPTで、生成型AIに対する行政指導は、日本国内では初めてのケースです。
 
『個人情報の保護に関する法律』では『要配慮個人情報』について定義してあり、人種、信仰、社会的地位、医療履歴、犯罪歴などの情報を取得する前には個人の同意が必要とされています。

  文字を読むのが苦手な方のために、政府広報オンラインでは、以下のようなポンチ絵を駆使した説明資料まで作成しているので、これ以上説明する必要はないかも知れません。

政府広報オンラインの個人情報のポンチ絵

 今回の日本初の生成AIに関する行政指導の内容としては、OpenAIに対して主に以下の三つの要求がありました。
 
(1) ユーザーからセンシティブな個人情報を無許可で収集しないよう求める
(2) 要配慮個人情報がAIの学習データに含まれていた場合は、データを削除するか、あるいは個人が特定できないような措置をとることを求める
(3) OpenAIには、ChatGPTの個人情報の使用目的をユーザーに日本語で説明するよう求める

 さらには、生成型AIを使用する行政機関や企業に対しても、個人情報の使用を最小限に抑え、個人情報保護法が遵守されていることを確認するよう指導がなされました。

 また、個人情報保護委員会は、ユーザーが提供する個人情報がAIの機械学習に用いられ、誤った情報が生成される可能性についてユーザー自身にも注意喚起しました。

 今回の指導はあくまで行政の助言の一環で、具体的な法律違反は確認されていません。しかし、OpenAIが適切な対応を取らなければ、立ち入り検査や罰金処分などを受ける可能性があります。

 なお、日本国以外でも過去にもイタリア政府が法違反の疑いで一時的にOpenAIのサービスを停止し調査を行ったことがあり、世界的なAI規制の取り組みに一石を投じています。

 この日経新聞の記事に対するNII(国立情報学研究所)の佐藤一郎教授のコメントは、いつもながら非常に適切です。 

佐藤一郎
国立情報学研究所 教授
 個人情報保護委員会の注意喚起対象は、対話AIであるChatGPTを開発・提供する事業者(オープンAI)だけでなく、対話AIを利用する事業者(個人情報取扱事業者)、行政機関、利用者にも行われていることに留意すべきである。
 生成AIでは個人情報が、①AIの学習データ、②利用者の入力、③対話AIの出力に含まれることがあり、分けて対策を考える必要があるだろう。さらに対象情報が個人情報か否かに限らず、生成AIという新しい技術に関して、個人の権利利益の侵害とならない利用の仕方とその規律を考えていく必要がある。そのとき生成AIを提供・利用する事業者すべてが適切に扱うとは限らないことも念頭に置くべきだろう。
2023年6月2日 14:41 (2023年6月2日 15:19更新)

日本経済新聞

 要するに、注意喚起や個人情報漏洩リスク問題の対象は、OpenAIだけではなく、ChatGPTのプラグインやアドオンを使ったソフトの開発者や、それらのシステムを利用する企業も含まれており、これらのソフトから個人情報が流出すると、企業によっては倒産に追い込まれるほどリスクが高い状態だと言えます。 

 AI無知倫理学会では、そのようなAI無知倫理問題を以下のような記事で、定期的に指摘しております。 

 また、AI無知倫理学会では、日本におけるプロンプトエンジニアリングに対する間違った考え方についても、指摘しております。

 このような間違った生成AIに関する概念を誰が拡散しているのか調べてみると、AI無知総本山の松尾豊教授が以下のように述べていることが分かりました。これだけ短い文章でプロンプトエンジニアリングに関するミスリードと、個人情報漏洩リスク促進キャンペーンをやってしまうとは、流石、AIの第一人者の松尾豊教授ならではの味わい深い解説です。 

松尾 まず、触ってみることですね、今は、ChatGPTのプロンプト(指示文)の例文を集めた教科書のようなWebサイトが多く出てきているので、それを見ながら試してみるのも手だと思います。
(中略)
もう一つは、API(アプリケーション・プログラミング・インターフェース)を活用してほしいですね。ChatGPTはAPIが提供されていて、他のサイトやサービスからChatGPTの機能にアクセスし、情報をアウトプットさせることができます。 

日経クロストレンド

この記事が参加している募集

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?