見出し画像

ChatGPTのリスク:サムスンの機密情報漏洩の可能性は他人事じゃない?

リアルタイムでは参加出来なかったけれど、下記のnoteイベントのYouTube配信動画は、今でも視聴出来るということだったので、さっそく見てみました。

気になったことをいくつかメモしたのだけれど、、、

最後の辺りで、「イベントが継続できるかどうかは皆さんのアンケートの結果次第」とか、「ネガティブなフィードバックも受け止めはしますので柔らかい文章で」といった注意というか、お願いがあったので、今後も、こういったイベントはどんどん続けていっていただきたいと思うし、記事上でイベントに関する詳細コメントを書くのは止めておこうと思います。

その代わりに、ちょうど、このイベント動画を見る前に、「Google Cloud Innovators」のニュースレターで紹介されていて、思わず気になって読んでみた下記の記事について、「AIとビジネスの新時代」にも関係があると思うので、自由にコメントしてみようと思います。


この事件(?)、英語圏でも日本でも、今月、話題になっていたらしいけれど、私は見落としていました。

Samsung(サムスン)で何があったのかを簡単に説明すると、社内の半導体部門でChatGPTの使用を認めていたところ、トップシークレットが含まれたソースコードのバグの修正にChatGPTを使用したり、ハードウェアに関する内部ミーティングの記録からプレゼンテーションを作成する際にChatGPTを使用したりと、1か月間で3度も、機密情報漏洩のリスクが発生していたのだそうです。

チャットボットを実際に開発したり、開発したことはないけれど、仕組みを十分理解しているという人にとっては、当然のことだと思いますが、「プラットフォーム上で入力したデータは、すべてサーバーに送信され、そこで解析処理等がされる、、、」ということを、意識しないでChatGPTを使っている人たちが、まだまだ存在するみたいです。

利用時の解析処理だけでなく、いろんなテストや改良を重ねていく為にも、通常、入力された全てのデータを、データベースに保存しているのではないかと思います。これも、開発者にとってはしごく当然のことだと思います。

ただ、一般ユーザーは、自分の目の前にある画面のユーザーインターフェースのみを見ているので、そこに入力したデータが、送信後にどういった経路を辿り、どういった形で取り扱われ、どういったプロセスを経て回答が画面上に戻ってくるのかということを、想像すらしてみたことがないのではないかと思います。

魔法のように、ChatGPTというマジックボックスが、即座に回答を生成して表示してくれていると思っている人が多いのではないかと思うんです。

そういう使い方でも問題ないアプリもたくさんあると思いますが、チャットAIは、その汎用性の広さとユーザー数の急激な増加から、使用する前に、ある程度の初心者講習のようなものがあっても良いのではないかと思います。

「便利だよ~」「どんどん使おう~」「リスクはよく分かんないけど~」というメッセージ配信やイベントを社会人である大人がしてしまうっていうことは、学生さんや子どもたちの間では、どんなことになっているのだろうかと、心配になってしまいます。

以前、ソーシャルメディアのプラットフォームについての説明を友人知人にした時も、何をどう説明しても、どうしても、個人宛に送信したメッセージも含め、投稿した内容は全て、サーバー上のデータベースに保存されて、そこから必要に応じてアプリ上に抽出表示されているんだっていうことを、理解してもらえませんでした。

スマホからスマホへのやり取りではなく、必ず、サーバー上にデータが保存されていること、そして、その仕組み上、必要に応じて、開発者や内部の人たちは、データにアクセス出来るということを、どうしても理解してもらえませんでした。

日本の人口を大幅に超えるようなユーザーがいるプラットフォーム等とは、勿論、規模が天と地、いや宇宙と地中ほど違いますが、小規模とはいえ、同様のWebアプリケーションを開発した経験がある身としては、ソーシャルメディア系アプリを使う度に、リレーショナル・データベースの構成を想像したり、一つ一つのアクションに該当するファンクションのコーディングやSQLステートメントを頭で考えたりしてしまいます。一種の職業病です。

一般ユーザーは、そんなバックエンドの仕組みを知る必要が無いのは当然としても、ある程度の仕組みは知っておく必要があるのではないかと思います。

リスクがある使い方とそうでない使い方、情報を共有した時に、プラットフォーム自体の管理チームを含め、どの範囲にその情報が共有されているのかとか、ソーシャルメディア経由で子どもたちがターゲットにされている犯罪等を含め、今、どんな問題が起きているのか等を、きちんと知っておいた上で、楽しく便利に使えば良いのではないかと思います。

例えば、車の運転の際に、免許が必要だったり、最低限の車に関する知識が必要だったりするように、ChatGPTやその他のチャットAIを使用する際にも、最低限の知識は必要だと思うんです。

一般ユーザーに誤解を与えてしまうことがないように、少なくとも、各種メディア等で、不特定多数の人たちにChatGPTやその他のチャットAIの解説をする立場にある人たちは、最低限の知識は持っておいて損はないと思います。

私が2000年から2001年にかけてInternet Technologyのディプロマを取得した際に、ハッキングについて話題になったことがありました。
その時の講師が言っていたのは、一番多い手口は、例えば、企業の受付の人等に、作業を依頼されたからといった適当な理由を言って、その人のログイン情報を聞き出す方法だということでした。コンピューターを使ってネットワーク上で突破口を見つけるより、まずは、人をターゲットにするらしいと。限定的なアクセス権限しか持っていない人は、自分のログイン情報など、たいした情報ではないからと、詳細を確かめもせずに、部外者に教えてしまったりするけれど、その情報こそ、ハッカーが必要としている情報なのだと。だから、セキュリティで一番大切なのは、ユーザーの教育なのだと教わりました。


下記の動画は、ふと思い出した、ハッキングを題材とした
1992年の映画『スニーカーズ』(Sneakers)の一場面。


ChatGPTは、一気にユーザーの範囲を広げてしまったし、追随する企業のチャットAIも、あっという間に誰もが使うようになるのだと思います。

リスクを考えたこともないし、便利なのだから、使わなければ遅れをとってしまうし、リスクなんて考える必要などないと考えるユーザーが大多数で、その流れは今後も変わらないとも思います。

それでも、心理学とWebプログラミングとデータサイエンスというユニークな組み合わせで知識と技術と経験を重ねてきたからこそ気づけることを、私は、発信していくべきなんじゃないかなって、最近、強く思うんです。

日本政府が、ChatGPTなどの有効活用を検討しているっていうニュースも見ました。ChatGPTを使って欲しいという強い意図を持った人たちからだけでなく、幅広い意見に耳を傾けて、リスクをしっかりと理解した上で、より便利に、より安全に、活用できる方法を検討していただきたいと思います。

日本では、明らかに相手にとって不利になることを勧めたりはしないと思います。そして、そんな自分たちの価値観を基準に相手を見ているので、しっかりとした肩書や地位を持った人たちが、そんなことをすることは決してないと思いがちなのではないかと思います。

グローバルな舞台では違う場合があるということを、知っておく必要があるのではないかと思います。

相手が悪意を持っている訳でも、非常識な訳でもなくて、自分に有利な手段を取ることが当たり前というカルチャーを持っている人たちが、世界には存在するという、ただそれだけのことなんですが、そういったカルチャーがあることを、知っておくことは大切だと思います。

どんな相手に対しても誠実に、思いやりの心を持って接しようとする日本のカルチャーは大切にしつつ、世界の舞台でのリスク対策は、しっかりとする必要があると、外から日本を見ていて思う今日この頃です。


長文を最後まで読んでいただいてありがとうございます。
最後に、ここまで読んで下さったあなたに質問です。

あなたは、サムスンで起きた機密情報漏洩のリスクが、日本の企業や政府には、まったく無いと思いますか?

外注先の人材も含め、社内のネットワーク上だけでなく、在宅勤務や休日のプライベートでの作業中、個人でChatGPTを使っている際に、外部には知られたくない仕事上の情報を、リスクに気づくことなく入力してしまう社員などいないと、自信を持って言い切ることが出来ますか?


最後まで読んで頂きありがとうございます!もし、缶ジュースやお茶やお酒の1杯くらい、奢ってやってもいいかなぁと思える内容でしたら、投げ銭的にサポートして頂けたら嬉しいです。あなたからいただいた貴重なサポートは、次の記事を書く為の原動力として、大切に活用させていただきます。いっぴき羊