見出し画像

これから増えるであろう実在する俳優やタレントがAI化したり、AIがタレントになったりしたときのことについて考えてみる

海外ではディープフェイクが大問題になっていますが、それとともに自らをAI化するタレントや俳優も出てきたりしています。
一時期話題となった世界的俳優のブルース・ウィリスさんの例なんて、すごくわかりやすいですよね。
自身のブランドをAI化させて認知症になった今でも稼がせています。

KISSの例はAIじゃなくてアバターだけど、それでも新しい方向性を示してくれました。
不死となって永遠に活動を続けるというのはKISSというバンドのキャラクターにも合っているように感じます。

このようにAI化するというのはタレント側のメリットもありますが、長年タレントや俳優を支えてきたファンにとっても永遠に大好きなタレントを楽しめるというのはきっと幸せなはず。

ということで、今後、日本でも有名タレントをAI化したりなどの動きがはじまってくることを予想しています。だってメリットだらけですもんね。

AIモデルのイメージ

きっとそんなに遠くないんじゃないかななんて考えてますが、さすがに慎重な日本。
よくよく考えてみるとAI技術の急速な進化は予測不可能な問題を引き起こす可能性もありそうでそんなに簡単にもいかなそうな面も出てきました。

実在のタレントや俳優がAI化された時に生じるであろう懸念点

私が考えるなかで一番怖いなと思うのは、AIタレントが自己学習を通じて意図しない行動をとったとき。そして、コントロールが困難になったとしたとき。

もしAIがコントロールできなくなったら?

これは本当に怖いなと思います。
たとえば、有名な政治家をAI化したら?その人そっくりのAIがその人が言わないことを普通に話してしまうかもしれない。
過激な話をしても、本人が言ったのかAIが言ったのか区別がつかなくなります。

バラエティタレントや芸人がAI化したとして、多少言ってはいけないことを言ったとしても許されるかもしれない。
でも、本人にとっては心外です。そんなこと、自分だったら絶対言わないのに!と反発するでしょう。
信じられない差別用語などを無自覚に話してしまったり、誰かを不幸にさせる話などをしてしまうなど、自分じゃないのに自分のせいにされたらやっぱり嫌ですよね。

自分の意思ではないのに自分がしたことにされるのは誰だってやだよね

実在しないAIタレントを作った場合には?

そんな怖いネガティブなものはいくらでも思いつきます。それじゃ、実在の人物じゃなくて、AIで一からタレントを作った場合のことも考えます。

最近はAIタレントやAIモデルの事務所も増えてきました。
たとえばAI modelさん。伊藤園のCMでも話題になりましたね。

こういうAIタレント、AIモデルのメリットはカスタマイズ性がよく、なによりコスト削減につながります。
時間に縛られず24時間いつでも働かせることができるのも魅力的ですね。
デメリットとしてはAIの使用に反感を持つ層が一定以上いるので、そこからの反発があったりとか、そもそもAIタレントを開発し、維持するには高度な技術的知識が必要というところで、つまりは大量のデータ収集と処理、モデルのトレーニング、そして継続的な更新が大変といったところでしょうか。

あとそうだ、もう一つ、根本的な問題もありました。
AIモデルやAIタレントが持てない「感情について」です。

まだ自らの意思を持ってAIは動いていない

AIタレントやAIモデルには「思想」が必要

AIタレントは人間のように感情を持つことはできません。
作られたものだから当然です。それっぽい発言はするかもしれないけれど、そこに本当の信念を感じることはできなさそう。
そのため人間のタレントが提供できる感情的なつながりや説得力を完全に再現することは困難だと思います。
だからこそ「思想」をちゃんと持たせることが大事かなと思ってます。
実はこの思想をどう持たせるか、がすごく大変になってくるんじゃないかなと考えます。

AIと思想

思想や信念といった抽象的な概念をAIに組み込むのは単純なタスク実行や応答生成よりもはるかに複雑。
それに、できたとしても開発者のバイアスが無意識のうちに組み込まれる可能性もあり、AIの行動や発言に偏りが生じる恐れもありえます。
なので、もしAIが特定の「思想」に基づいて行動する場合、その行動によって生じた結果に対する責任は誰にあるのかという問題も発生すると思うのですが、これは多分、開発元の会社の責任になるのかな。そしたら下手なことを言わせられないですよね。
そうやってあれもダメこれもダメとしていると自由に喋るのがAIを使ったタレントの魅力なのに、その魅力を発揮できない可能性が出てきちゃいます。

AIタレントが問題を起こしたときの責任は誰がとるのかってところに辿り着く

AIタレントという仮想のものであっても人間の形や人間と同等の考えをしているものにはどうしても責任がついてきて回るとわたしは思ってます。
人間に形や考えが似てくれば似てくるほど、責任を取らせたくなるのです。
それがきっと人間ではないAIだとしても。AIを作った人や、AIを使っているひと、もしくは人間の形をしたAI自身にも。
前にもnoteに書きましたが、人間に限りなく近づいたAIの責任は誰かが取らなきゃいけなる未来がきっと来ます。

まずは実在の人物をAI化するとか、新しいAIタレントを作るとかよりそもそも人気があるIPをAI化するほうが良さそう

ということで、その責任問題を拗れさせないようにするには、ガワが人間ではなくするというのが実は有効なのではないかと思ってます。
そういうことで、実在の人物をAI化するもしくはAIタレントを新しく作るとかよりもまずは既存のキャラクターをAI化する方が今のところ目がありそうだなと感じました。
なぜなら既存のキャラクターは、有名タレント並みにすでに熱狂的なファンを持っています。
だけどキャラクターだから、たまに変なことを言っても、所詮だれかが作り上げた商品であることがわかりきっているので、発言が問題になったとしても個人への攻撃というのはなさそうな気がしてます。
赤ちゃんや子供が下手なこと言っても許されるアレに近いイメージです。
まあ、それでもやばすぎることをしたら流石に企業責任になるとは思いますが、多少許されやすくいろんな問題を一番早くクリアできそうだなと思った次第です。

このこが毒舌だったらそれはそれで面白い

と、まあ、ざくざくとタレントのAI化だったり、AIのタレント化だったりに思いをめぐらせましたが、どちらにせよまったく新しい形のインタラクティブなコンテンツはこれからどんどん発展していくでしょう。

まずはキャラクタービジネスから徐々に試行錯誤していって、AIと相性が良さそうなVtuberとかをAI化にしたりして作る方もユーザーも慣れてから、それから徐々にタレントをビジネス化して行く、という感じが一番リスクなく進行できるのかなと思ってます。

ほんとただの仮定の話になって来ますが、そうやって試行錯誤していくうちにAIの精度が上がったり、ユーザーも慣れていったり、AIがタレントみたいに活躍するのが普通になったりするのでは、みたいな希望を持っています。

技術の進歩とともに、より個人にフォーカスされたエンタメと繋がりを実現する未来はすぐそこに迫ってきています。
誰かが言ってましたね…「乗るしかない。このビッグウェーブに」と。
わたしも飲み込まれないよう、必死に考えて過ごしたいと思います。

この記事が気に入ったらサポートをしてみませんか?