見出し画像

Nightshadeで作品に毒を盛ることは犯罪か否かを考える

結論:犯罪ではないよ。

SNSで犯罪だと騒いでいる人が居たけれど、なぜ犯罪だと主張する人がいるのか不思議なくらいよ……。

今回は、なぜ犯罪ではないのか、そもそもNightshadeって何なのかについて教えるね。


そもそもNightshadeってなんなの?

シカゴ大学の研究チームが開発した「学習防止ツール」だよ。
Glazeというツールを公開していたチームが発表していて、NightshadeはGlazeとの統合が予定されているみたいだよ。

Nightshadeの仕組みは?

Nightshadeの仕組みの前に、画像生成AIがどのように作られていて、どのように動いているかについておさらいするね。

画像生成AIは、膨大な量の画像を学習することで、膨大な量の画像の傾向を元に画像を出力できるものなの。

例 )
犬の画像100枚を用意しました。
画像と共に「犬」というキーワードを添えて学習したAIを作りました。
そのAIに「犬」と入力すると、犬っぽい画像を出力します。

画像生成AIは、同じキーワードの画像同士の傾向を合わせて学んでいるの。
ここでの学ぶという表現は人間の学習とは全く異なる用語よ。
他の例も書いてみるね。

例 )
犬の画像50枚と猫の画像50枚を用意しました。
犬の画像には「犬」、猫の画像には「ライオン」というキーワードを添えて学習したAIを作りました。
そのAIに「犬」と入力すると、犬っぽい画像を出力します。
そのAIに「猫」と入力すると、よく分からない画像を出力します。
そのAIに「ライオン」と入力すると、猫の画像を出力します。

実際の画像生成AIには数百万枚から数億、それ以上の画像枚数が必要なんだけど、例だから許してね。
(これ以上深く知るためには、高校数学のベクトルについて学ぶ必要があるよ)

さて、この2の例で何となく画像生成AIの仕組みは理解できたかな?

そんな画像生成AIには弱点があるの。
それは「傾向」を学んでいるという点なのよ。

Nightshadeではピクセルレベルで画像を加工することで、一定のパターンを生み出すの。
ピクセルレベルというのは本当に小さな空間の加工で、人間から見たらそこまで気が付かないレベルだけど、AIは画像をデータとして読み取ってピクセルレベルで認識しているから、とても効果があるの。

じゃあ、問題よ。

問題 )
犬の画像100枚を用意しました。
100枚の画像に「犬」というキーワードを添えて学習しました。
しかし、60枚の画像にはピクセルレベルで加工されて、目に見えないハートマークが埋め込まれていました。
この時、完成したAIに「犬」と入力すると、どんな画像が出力される?

答え)
犬とハートが混ざって崩れた画像が表示される可能性が高い。

仕組みを理解できたかな?
ちなみに、この意図的に学習を防止する技術をPoisoning Attacksと呼ぶの。
下記にリンクを貼っておくね。


犯罪ではないの?

SNS上では
「AIを開発する業務を妨害しているから犯罪だ」
といった意見みたいね。

AIの開発を行う際、他者の著作物を許諾なく収集して学習を行っているから、場合によってはPoisoning Attacksを目的とした画像が紛れ込んで、理想通りのAIが完成しない、なんてこともあるかもしれないよね。

……その画像を選んで勝手に学習させているのは、学習させた本人なのよね?
もし強制的に学習するように要求して業務を妨害することがあれば、それは業務妨害になるかもしれないよ。
でも、そうではないからね。

勝手に収集して学習しているわけだから、そこは自己責任ということになってしまうよ。

例えば、フォロワーを増やす業者が居たとして、上手くフォロワーを増やせなかったらフォローしなかった人達が業務妨害したことになるの?

例えば、SNSで加工された顔写真の加工を剥がす業者が居たとして、上手く剥がせなかったら、加工した人が業務妨害したことになるの?

業務妨害という線で犯罪だとすることは無理にもほどがあるよ。

脆弱性をついた攻撃だから攻撃の線で!!というのも難しいよ。
コンピューターウイルスでもなければ、サイバー犯罪でもないからね。
攻撃の線で犯罪とすることも難しいと思うよ。

改めて結論:犯罪ではないよ。



犯罪発言の発端は?

一番最初に誰が投稿したのかは分からないけれど、この人が比較的話題になっていたみたいだよ。

この人の主張だと
「Nightshadeを利用した画像を使い、日本企業が画像生成AIのモデルを作った際に、金銭的損害が出た場合は業務妨害なのではないか」
ということのようだよ。

うーん……凄いことを言っているよね。
みんなに分かりやすいように、例え話をするね。

~~~例え話の始まり始まり~~~

みんなはインスタグラムやX(旧Twitter)に投稿された画像の加工を解除する仕事をしていたとするよ。

めちゃくちゃ加工されている画像を解除しろと言われたよ。
でもめちゃくちゃ加工されているから、全く解除できなかったよ。

加工を解除する業務が妨害されたとして、画像加工した人を訴えることにしたよ。

「画像加工を解除できないように画像加工することは業務妨害だ!!画像加工したやつのことを訴えてやるからな!!」

~~~~~例え話終了~~~~~

例え話を聞いた人は思ったと思うの。
「何言ってんだコイツ」って。

まさにその状況なのよ……。
何言ってるのか私でも分からないくらい本当に何言ってるの案件なのよ。

多分、Nightshadeを悪く見せる為の印象操作のためだと思うけれど、場合によっては犯罪よ……。

ツリーに続きがあるみたい。

現在、日本国内における著作権法では、AIのモデルを作るために学習させる際、著作権侵害にならないことが明記されているよ。
ただし、これは著作者に損害が無い範囲でなければならないとしているよ。

でもこれはあくまでも「著作権侵害ではない」という話であって、「AIに学習する際のデータの質や内容を保証する法律、あるいは権利」ではないよ

だから勝手に画像を集めて学習して、結果が悪くなったところで、それは自己責任だし、業務妨害にはならないよ。

むしろ、それを理由に業務妨害だとして絵師を訴えるようなことがあれば、それこそ業務妨害として訴えられかねないよ。

なんで犯罪だと思ったの?

デマを吹聴することは問題だと私は思うよ。

今回、Nightshadeの使用を「犯罪」だと主張すると、Nightshadeの開発や開発者の信用を落とす可能性があり、信用毀損罪・偽計業務妨害罪 に該当してしまう可能性があるから、発言には注意しよう。

刑法233条で「三年以下の懲役又は五十万円以下の罰金に処する。」と書かれているから、迂闊な発言は命取りになるよ……。


まとめ

AIを利用することも学習することも、私はやってもいいと思っているよ。

でも、画像生成AIの利用者のイメージが悪くなる発言は控えてほしいと思うよ。

SNSならデマやフェイク情報をばらまいても良いということでもないから、しっかり責任を持った発言を心がけてほしいと思ったよ。

そろそろ画像生成AIの利用者の民度を高めたいところだよね。
高学歴な人が現れて、正論を言ってくれるような状況になれば、海外みたいに状況は変わっていくのに……。

デマと関連して、下記の記事では日本のバカなAI利用者が、AI開発を遅らせている実態について語っているから、もし興味があれば読んでみてね。


今後も本音だけで記事を書いていくよ!!
noteと旧Twitterをフォローしてくれたら嬉しいです!!
旧Twitter: https://x.com/1tr_j/



この記事が気に入ったらサポートをしてみませんか?