見出し画像

Adobe Summit 2023

Adobe Summit 2023に参加してきた。

3月21日-3月23日まで米国ラスベガスのベネチアンホテルで開催された世界最大規模のデジタルマーケティングのカンファレンスである。

とにかくラスベガスという街を含めて規模がデカくて情報や知識云々ではなく、インスパイアされた。

基調講演のトピックとしてはAdobe Fireflyという画像生成AIサービスのベータ版のリリースだ。テキストベースで画像生成とテキストエフェクトが行える。

このFireflyのリリースにより、AdobeのAIサービス群であるAdobe SenseiがAdobe Sensei GenAIにアップデートされる。

FireflyはChatGPT-4、Midjourney、Runway Gen2などと同じGenerative AI(生成AI)だ。テキストベースから2Dコンテンツを生成できる。

特徴は商用利用を前提としており、ストックフォトサービスのAdobe Stockの画像やパブリックドメインなどを学習データとしている。クリエイターのIP(知的財産)を侵害しないように配慮されている。

自身の作品を学習データに使用されたくないクリエイターは「Do Not Train」タグで回避できる。

テキストベースで2Dコンテンツが簡易に作成できるようになると、コンテンツ制作が民主化されるということでもある。素人とプロの差が小さくなってくる。

コンテンツの機能面での差別化が図りにくくなるため、クリエイティブ能力の定義が変わってくる。

スマホが普及して素人でも綺麗な写真や画像が撮影できるようになったことでフォトグラファーも別の価値を出さねばならなくなった。

同じようにクリエイティブ能力とはコンテンツを一から作る能力ではなく、生成AIに適切なプロンプト(文章)を流し込む能力に再定義されるかもしれない。

作る人と使う人の間にあった境界線が溶けていく。コンテンツが必要だから依頼するではなく、自分で作るという流れになっていくのだろう。

当面は、原液となるブランドのコンセプトや世界観、ストーリーは人間が作り、AIはそれを出し分ける役割を担っていくのかもしれない。だが、それらもAIが高い精度で生成できるようになり時間の問題。

リアルタイムCDPでユーザー単位またはセグメント単位でパーソナライズされた広告をタイムリーに出し分けるためにはコンテンツのバリエーションが必要なので、そこはAIの得意領域。

スマホの登場でYouTubeが価値あるプラットフォームになったように、生成AIが普及することでも同じような現象が起きると思う。

素人でも2Dコンテンツが制作できるようになったことで、これらのコンテンツをやり取りするプラットフォームができる。ブロックチェーンやNFT、DAOのようなWeb3.0は実はWeb4.0になり、AIが先に市民権を得てWeb3.0になるのではないか。

だが機能で差別化が難しいので、「誰の作品か」という点がますます重要になってくる。留意点としてはテクノロジーの進化が速過ぎてルールが間に合わずガバナンスが利いてないという点。

Adobe SummitではAI ethics principleとして、 Accountability(説明義務)、Responsibility(責任)、Transparency(透明性)が挙げられていた。

商用利用前提とはあるが、ルールがまだまだ定まっていない分、使う側の倫理に委ねられる部分は多い。生成AIの普及により、人間は自分たちの価値の生み出し方の再定義という問いに向き合わなければならない。

今からできることはChatGPT-4、Midjourney、Runway Gen2などの生成AIを触ってみて、特徴やできること、できないことを肌で感じ耐性を付けておくことかな。

この記事が気に入ったらサポートをしてみませんか?