「Bing AI」の名称が「Copilot」に変わっていた後のAI脆弱性と危険性問題

「Bing Image Creator」が「DALL-E 3版」に対応した後から発生している障害や、「大幅に変わった約款などの箇所」について、今回の記事を読む前の前提に知っておかないといけない内容は前に書いた上の記事に書いてあります。

それで、今度は、自分のパソコンで発生した日時なので、正確な日時はわからないものの、
・2023年10月21日22:10 「Bing AI」の名称が「Copilot」に変わっていた。
・2023年10月23日23:40 おそらく「見えないデジタル透かし」実装で、画像出力結果画面が遅くなった。(「Copilot」が、WORD、EXCELなどからアクセスできるようになったので、どうも、サーバーが重くなっているが、一方で、「AIの危険性や脆弱性」について知られていないまま、ビジネスや行政で利用しているケースが増えてきている危険性がある)
という変化と障害発生について書いていきます。

<「Bing Image Creator」が「DALL-E 3版」に対応していった経緯と障害発生経緯>


(「Bing Image Creator」が「DALL-E 3版」に対応に関する障害発生の経緯)
2023年9月21日(アメリカ時間)、Microsoftは、「Bing」のAIチャットに最新のモデルを組み込むと発表。
2023年9月30日、Bing の幹部のMikhail Parakhin氏が、X(旧Twitter)に、「Bing Image CreatorにDALL-E3版の組み込み後の綺麗になった画像生成AI出力結果」を載せていた。
2023年10月2日(DALL-E3版)画像出力に30分~2時間位かかるようになったが、予期せぬ出来事のために、現在、「ブースト」回数が減らない措置をしている状態(Microsoftが原因調査中で、DALL-E 3版に対応できるだけのプラットフォームのGPU改善をする予定)
2023年10月中旬頃予定で、これらの不具合を改善可能なだけのプラットフォームのGPU改善をする予定だとは言っている。

(その後の変化や自分のパソコンで発生した異常動作日時)

(この下の日時は、あくまでも、自分がパソコンを利用していた時に障害が出た日時なので正確な日時はわからない)
2023年10月11日2:00 サーバーが重い症状は改善されたが「25回」ブーストになった。
2023年10月19日13:40 サーバーが重い症状は改善されたが「15回」ブーストになった。
2023年10月21日22:10 「Bing AI」の名称が「Copilot」に変わっていた。
2023年10月23日23:40 おそらく「見えないデジタル透かし」実装で、画像出力結果画面が遅くなった。

<「Copilot」以降のMicrosoftからの注意点>
「Copilot」以降のMicrosoftからの注意点は、次のマイクロソフトのホームページに細かく書いてあります。
重要そうな箇所だけを下に箇条書きで書き出してみた。

(Microsoft 365 Copilot のデータ、プライバシー、セキュリティ(Microsoft,2023/10/03))
https://learn.microsoft.com/ja-jp/microsoft-365-copilot/microsoft-365-copilot-privacy

『・Microsoft Graph 経由でアクセスされるプロンプト、応答、データは、Microsoft 365 Copilot で使用されるものを含め、基礎 LLM のトレーニングには使用されません。
・Microsoft 365 Copilot を使用してプロンプトを入力すると、プロンプトに含まれる情報、プロンプトが取得するデータ、生成された応答は、現在のプライバシー、セキュリティ、コンプライアンスの義務に従って、Microsoft 365 サービス境界内に残ります。 Microsoft 365 Copilot は、OpenAI の一般公開されているサービスではなく、Azure OpenAI サービスを処理に使用します。
・生成 AI によって生成される応答は、100% 事実であるという保証はありません。 応答の改善を続けていますが、他のユーザーに送信する前に、出力を確認する際には依然としてユーザーによる判断が必要です。 Microsoft 365 Copilot の機能は、これらのタスクを完全に自動化するのではなく、生成された AI をレビューする機会を提供しながら、より多くのことを達成するのに役立つ便利な下書きと概要を提供します。
・Microsoft は、サービスの出力の所有権を要求しません。 つまり、Microsoft は、顧客の出力が著作権で保護されているか、他のユーザーに対して法的強制力があるかどうかを判断することはありません。 これは、生成 AI システムが、複数の顧客からの同様のプロンプトまたはクエリに対して同様の応答を生成する場合があるためです。 そのため、複数の顧客が、同じまたは実質的に類似したコンテンツの権利を持っているか、または権利を所有または主張する可能性があります。
第三者が、Microsoft の Copilots またはそれが生成する出力の使用による著作権侵害で法人顧客を訴えた場合、顧客が当社製品に組み込まれているガードレールとコンテンツ フィルターを使用している限り、Microsoft は顧客を弁護し、訴訟の結果として生じる不利な判決または和解の金額を支払います。』

非常に問題なのは、上の「Microsoft 365 Copilot のデータ、プライバシー、セキュリティ」のホームページ自体が、「このトピックの一部は機械翻訳で処理されている場合があります」と書かれている事で、「人間が責任能力を放棄してAIに丸投げしだしている」という危険な兆候が見られる事です。
最低限、こういった「プライバシー保護や、セキュリティ」関係の所や法律関係の文書は、全部、人間の手で書くべきでしょう。

(「AIの危険性や脆弱性」について知られていないまま、ビジネスや行政で利用すべきではない)

今回の
・「Bing AI」の名称が「Copilot」に変わっていて、WORD、EXCELなどからアクセスできるようになった。
以降の危険性については、
・マイクロソフトのAIが、「Copilot」になったから、あなたのパソコン内のWORD、EXCELの文書をどんどん放り込んでみてね。
みたいな状況に現在なっているわけですが、普通、そういう状況は、「スパイウェア」とか、企業内の情報の全部抜き取りみたいな未知の極めて会社が危険な状況に追い込まれるトラブルが多発するような感じしかしない。

マイクロソフトの「Copilot」の声明よりも、むしろ、「AI利用の心理的閾値が下がる」事の方が怖くて、例えば、中国製AIや、いろいろなハッカーが作成したAIなどが、今後世界中に蔓延していく事になると思われるが、「そういったAI利用の危険性や脆弱性を理解できないまま、マイクロソフトの「Copilot」のAI利用のクセが付いてしまって、WORD、EXCELなんかの企業内や行政内や国家文書を、「AI利用の心理的閾値が下がる」事で、中国製AIや、いろいろなハッカーが作成したAIなんかに、安易に、非常に簡単に入力していってしまう事態が、今後、かなり早い時期に訪れるはずで、大企業の企業内漏洩事件や、国家情報の漏洩事件などが普通に多発してしまう!時期に突入してしまいかねない。

すでに、「ChatGPT」が出た辺りの時期から、企業内へのフィッシング詐欺の傾向が大きく変わった箇所があって、
・「~というあなたの取り引き先に実際にある企業名からメールが来て、「新しい海外との取り引きの為に~百万円指定の講座に振り込んで下さい」みたいな企業内へのフィッシング詐欺メールが来て騙されてしまい、かなりの高額を振り込んでしまった」という被害が多発し出している。
問題な箇所は、
・「あなたのパソコン内のWORD、EXCELの文書をどんどんAIに放り込んでみてね。」
という、「AI利用の心理的閾値が下がる」事の方が怖くて、その「企業内や国家文書内のWORD、EXCEL内には、正確な取引相手の名称が含まれている」ので、そういった文書を、AIに読み込ませる事で、フィッシング詐欺は、「正確な取引相手の名称」からのメールの作成を詐欺組織が作成可能になった
ので、「正確な取引相手の名称」からの振り込めメールなので、簡単に、大企業などが数百万円~数千万円単位の規模で、間違って振り込んでしまう詐欺が現在増えています。
このように、「AI利用の心理的閾値が下がる」事は、かなり危険な世の中になる。

現在、自分も含めて、「イノベーター」の人達が実験的に、「AI」を利用してみているのは、「AIの危険性の検証」と「AIの可能性の模索」を同時にやっているからです。
自分も含めて、「イノベーター」と呼ばれる人達は、好奇心旺盛なので、先端技術をまず使ってみるが、それは常に、「先端技術の危険性の検証」と「先端技術の可能性の模索」を同時にやっている。

(「Copilot」以降の危険性について)
現在、
・「マイクロソフトのAIが、「Copilot」になったから、あなたのパソコン内のWORD、EXCELの文書をどんどん放り込んでみてね」
とマイクロソフトが書いているが、もう1度個々に下の文書を検証していくと、

(Microsoft 365 Copilot のデータ、プライバシー、セキュリティ(Microsoft,2023/10/03))
https://learn.microsoft.com/ja-jp/microsoft-365-copilot/microsoft-365-copilot-privacy

(1)
『・Microsoft Graph 経由でアクセスされるプロンプト、応答、データは、Microsoft 365 Copilot で使用されるものを含め、基礎 LLM のトレーニングには使用されません。
・Microsoft 365 Copilot を使用してプロンプトを入力すると、プロンプトに含まれる情報、プロンプトが取得するデータ、生成された応答は、現在のプライバシー、セキュリティ、コンプライアンスの義務に従って、Microsoft 365 サービス境界内に残ります。 Microsoft 365 Copilot は、OpenAI の一般公開されているサービスではなく、Azure OpenAI サービスを処理に使用します。』

「AIのトレーニングに使用されない」という事と、「マイクロソフトやAIに対して情報を送信しない」という事は別という事です。(完全オフラインAIでないと安全に利用できない)
上に書いたように、すでに、「ChatGPT」が出た辺りの時期から、企業内へのフィッシング詐欺の傾向が大きく変わった箇所があって、
・「~というあなたの取り引き先に実際にある企業名からメールが来て、「新しい海外との取り引きの為に~百万円指定の講座に振り込んで下さい」みたいな企業内へのフィッシング詐欺メールが来て騙されてしまい、かなりの高額を振り込んでしまった」という被害が多発し出している。
昔のフィッシング詐欺メールとは違って、どう見ても、「正確な取引相手の名称」を、うっかりAIに入力してしまったなどで、特に、テレワークも増えている時期に発生してきている現在の企業内セキュリティー事案です。

(2)
『・生成 AI によって生成される応答は、100% 事実であるという保証はありません。 応答の改善を続けていますが、他のユーザーに送信する前に、出力を確認する際には依然としてユーザーによる判断が必要です。 Microsoft 365 Copilot の機能は、これらのタスクを完全に自動化するのではなく、生成された AI をレビューする機会を提供しながら、より多くのことを達成するのに役立つ便利な下書きと概要を提供します。』

これが無茶苦茶厄介な箇所で、
・人間は、「人工知能が作り出すフェイクニュースを見抜く事がかなり難しい」です。
理由は、「最近の人工知能が作り出す文章が、とても流暢なので、自然に読み流してしまう」
からです。
「アッ!」と思った時には、企業や国家文書では、「もう遅い!」のです!
すでに、「社会や取引相手企業に対して、公開してしまっています」
から。
自分は、中の人が辞典学者なわけですが、「辞典学者から見ても、校正でうっかり見逃してしまいやすい」ような状態の文書の特徴が、「人工知能が作り出すフェイクニュース」にはあります。
厄介な特徴としては、「全体のほとんどが合っているが、1%とか間違いが紛れ込んでいる。しかも、人工知能が、とても流暢につなげて、フェイクニュース部分を織り交ぜて書いてしまっている」という「詐欺師の口調にそっくり」なのが、「人工知能が作り出すフェイクニュース」の書き方の特徴です。
これは、「1文1文ファクトチェックを行い、必ず、人間の目で真剣かつ極めて詳細なチェックが必ず必須となる!というよりも、1文というよりも、1文の中の部分にすら、ファクトチェックを必ず行わないといけない!」という大作業になり、「そもそも人間が最初から作成した方がはるかに労力が少なくて済みます」
・「アッ!」と思った時には、企業や国家文書では、「もう遅い!」。すでに、「社会や取引相手企業に対して、公開してしまっています」から「手遅れダメージ」の甚大な被害とリスクをきちんと考えるべきです。
もう1度、
・「マイクロソフトのAIが、「Copilot」になったから、あなたのパソコン内のWORD、EXCELの文書をどんどん放り込んでみてね」
という内容の危険性を理解してから、企業や行政や国家は利用するべきか?「脆弱性の危険性が甚大ではないのか?」などの検証が必要という事です。

(3)
『・Microsoft は、サービスの出力の所有権を要求しません。 つまり、Microsoft は、顧客の出力が著作権で保護されているか、他のユーザーに対して法的強制力があるかどうかを判断することはありません。 これは、生成 AI システムが、複数の顧客からの同様のプロンプトまたはクエリに対して同様の応答を生成する場合があるためです。 そのため、複数の顧客が、同じまたは実質的に類似したコンテンツの権利を持っているか、または権利を所有または主張する可能性があります。
第三者が、Microsoft の Copilots またはそれが生成する出力の使用による著作権侵害で法人顧客を訴えた場合、顧客が当社製品に組み込まれているガードレールとコンテンツ フィルターを使用している限り、Microsoft は顧客を弁護し、訴訟の結果として生じる不利な判決または和解の金額を支払います。』

これは、現在、
・「マイクロソフトのAIが、「Copilot」になったから、あなたのパソコン内のWORD、EXCELの文書をどんどん放り込んでみてね」
という以降、
・「多くの企業が、「Copilot」を利用して、WORD、EXCELの文書を作成する時代になった」事を意味しているわけですが、『AIに指示を出す、いわゆる、プロンプトという行為を利用すると、"AIがコンテンツの内容を作成してしまっている"ので、多くの企業が、「Copilot」を利用して、WORD、EXCELの文書などを作成した結果の文書内には、複数の企業内に同じような文書を"AIがコンテンツの内容を作成してしまっている"ので、「著作権がぶつかってしまい、未知のトラブルが多発するような時代が訪れる恐れがあります」』という、かなりの危険性が秘められている事を書いてある重要な箇所となります。
要するに、
・きちんとした企業や国家や行政が、『「Copilot」を利用して、WORD、EXCELの文書を作成した箇所。いわゆる、AI作成文書箇所の明確化(AI作成箇所の全てに、赤色を付けておくなど)を常に意識して全ての社員、部下、派遣社員などに通達』しておかないと、大惨事になりかねない!(必ず!「AI作成箇所の全てに、赤色を付けておいて」その箇所全ての著作権侵害を独自に、きちんとした企業や国家や行政は調査後で無いと、公開できないという事。その作業を怠り、「AIやっつけ仕事」をしたら大訴訟が発生しかねないという事です)
という最悪のインシデントが発生しかねない!わけです!
「AIは楽」ですが、「やはり、きちんとした企業や国家や行政が文書などを生成AI系に丸投げして作らせるのではなく、きちんと、最初から全部、人間に作らせた方が、はるかに、"管理でき"、"安心な"運営が可能になる」事でしょう!

(4)
もう1つの「AI著作権」問題ですが、現在、自分がいろいろと、
・マイクロソフトの「Bing Image Creator」が「DALL-E 3版」に対応完了した後に、いろいろと実験してみているが、こちらが、その事についてプロンプトで何も指示していないのに、普通に画像内に、「キティちゃん」、「ピカチュウ」に激似のキャラクターが紛れ込んでいる事があり、現在の段階の、「Bing Image Creator(DALL-E 3版)」が作り出す画像のどこに、「著作権侵害」の箇所が入り込んでしまっているのか?まったく判断できない状況で、「Copilot」が、WORD、EXCELなどのマイクロソフトの製品に対応はしたが、「CopilotってAIだよね」位の気軽な気分で企業や行政や国家文書を利用していると、「普通に、著作権侵害になる画像が含まれる」事の方が多いです!

このように、
・「Bing AI」の名称が「Copilot」に変わっていた。
・「Copilot」が、WORD、EXCELなどのマイクロソフトの製品に対応はした。
・「AIの危険性や脆弱性」について知られていないまま、ビジネスや行政で利用すべきではない。
・「AI利用の心理的閾値が下がる」事の危険性。
なんかをきちんと理解する事が必要です。
また、こちらで検証してみた所、
・マイクロソフトの「Bing Image Creator」が「DALL-E 3版」に対応完了した後に、いろいろと実験してみているが、こちらが、その事についてプロンプトで何も指示していないのに、普通に画像内に、「キティちゃん」、「ピカチュウ」に激似のキャラクターが紛れ込んでいる事があり、現在の段階の、「Bing Image Creator(DALL-E 3版)」が作り出す画像のどこに、「著作権侵害」の箇所が入り込んでしまっているのか?まったく判断できない状況。
など、企業、行政、国家文書を、「AIで作る事の危険性」と大訴訟地獄時代の発生の予感しかしないです。
きちんとした企業、行政、国家は、「AIやっつけ仕事」をせずに、「普通に、人間がはじめから作った方が、コストがはるかに低く済む」。
・きちんとした企業、行政、国家は、『必ず!「AI作成箇所の全てに、赤色を付けておいて」その箇所全ての著作権侵害を独自に、きちんとした企業や国家や行政は調査後で無いと、公開できないという事。その作業を怠り、「AIやっつけ仕事」をしたら大訴訟が発生しかねないという事です』

また、辞典学者の自分から見る限りでは、前に下の記事に書いたように、『「人工知能」は、このまま現状のままいくと、おそらくシンギュラリティは発生しない』事がほぼ確定しています。(「人間の文化」が原因なので、「ロジックとしてすでに絶対に無理」です。「辞典学者」というのも、「人工知能」と似た仕事をしていて、「単語の検証」という作業をしている関係で、先に、未来に何が起こるかわかるという話です)


この記事が気に入ったらサポートをしてみませんか?