見出し画像

DX閑話~生成AIとセキュリティ

こんな記事がありましたが、これ普通に考えてまずいと思う私は古いんですかね。事業にとって単なるセキュリティリスクにしか思えないわけです。

BYOAIのハードル

全員が、利用規約を見て理解し、AIサービスを選んで使えるかというハードル?

個人向けの生成AIサービスは、利用規約にデータの保護レベルが書いてあります。非常に読みづらいのですが、大体において入力データをAIの学習に流用できる事になっていたりします。

BYOAIの前提として、従業員全員がちゃんと利用規約を読んで、どの程度データが保護されるのかを理解し、かつ、データをAIの学習に流用しない設定が可能なサービスを選ぶ事が必要となり、ハードルになります。

全員が、使用しているAIサービスのリリースノートを追えるかというハードル?

生成AIサービスを、データの学習への流用をオフにして使っていたとしても、油断はできません。
新機能リリース時に、その機能が入力データを学習するという謎の事が起きています。

こんな週間単位で新機能がリリースされるような状況の中で、全員がサービスのリリースノートを逐一見て判断し、対処する必要があり、ハードルになります。

機密にあたる情報を隠して使う事を前提にしても、ハードルは結構ある

プロンプト情報商材で定番の「機密情報を差し替えて入力する」という手段をBYOAIの前提にした場合にも、ハードルはあります。

全員が、適切に機密情報をそれと認識できるかというハードル?

業務の中には機密情報が多々含まれていますが、一つ一つに「機密」というラベルが貼られているわけではありません。
人によって認識に幅があるため、それを統制するという事がハードルになります。

断片情報から機密情報を再構築できてしまう疑念?(これは私の妄想です)

生成AIは、様々な情報から、もっともらしい情報を構築するというシロモノです。仮に機密情報を差し替えて入力したとしても、情報を断片化し再構築したときに、ずばり機密情報になってしまう可能性を否定することは、私が理解している範疇ではできないです。

歴史学には、プロソポグラフィという手法があります。ざっくり言うと、過去に起きた事象を、周辺の史料から情報と文脈を抽出し、分解・再構築をすることで解明していくアプローチです。これと同様の事が意図せずして生成AIの中で実行される可能性があるのではないか、という事です。

業務で実用的に生成AIを使おうとする場合、すべての情報が出鱈目というわけにはいきません。入力データ内の単語やパラーメータは差し替えたとしても、文脈は差し替えることは非常に難しいです。

「そんなことを心配したら生成AIは使えないじゃないか!」と思うかもしれませんが

そもそも、セキュリティを保証してくれるエンタープライズ向けのサービスを選んで使おう、という話です。

ケチらない、これ、大事。

この記事が気に入ったらサポートをしてみませんか?