AI(人工知能)で変わるAdobe Photoshop クリエイティブ - 朝勉強会

2018年2月23日(金)の朝勉強会の記録です。
@commonstyle
#AI #Photoshop
PhotoshopとXDの連携作業を完全習得」で学習している皆さん向け


今からから30年前の1987年、Photoshopの前身といえる画像処理ソフトが大学生のトーマス・ノールによって開発されました。
Adobeがこのソフトのライセンスを獲得して、Photoshop 1.0としてリリースしたのが3年後の1990年です。Photoshopは今年「31歳」になる。


30年経って、Photoshopは超ヘビー級のツールになりました。まるで首都高のように機能を継ぎ足し、継ぎ足し、画像処理にとどまらず、今では3Dもできるし、ビデオ編集もできる。
プロのデザイナーでも、全体の3%の機能しか使っていないんですね(Adobe調べ)。

そんなAdobeの長老Photoshopが、AI(人工知能)によって、いま一番、クリエイティブの未来に近づいているエキサイティングなツールになっています。
もちろん、2010年頃からPhotoshopマジックと呼ばれるAI機能が話題になってきましたが、今回はちょっと違う。


今月のアップデートで、Lightrom CCのAndroid版が、音声で「猫を検索して」と言うとAdobe SenseiのAI機能で探してくれるようになりました。GoogleとAdobeのAIコンビネーションですね。
実は、デスクトップのPhotoshopにも命令を送れます。動画をみてください。


こちらは、実際に音声入力で命令を送っています。PCの内蔵マイクなのでノイズ軽減に時間がかかりますが一応、対応してくれる。
これは単なるPhotoshop内サーチですが、この先、Adobe Senseiと対話しながら作業するイメージを思い浮かべることができますよね。


例えば、Photoshopに「Sensei! 背景だけ明度を上げて!」と音声で処理を実行してもらいます。すると、背景だけ明るくしてくれる。
これはAIが自動化しやすい処理なんですが、人間がやるとこういう手順です。ちょっと、やってみますので動画を見てください。


私たちは、AIが「自分の仕事のどの作業を代替していくのか」ある程度想像しておく必要があります。今でも、自動補正してくれたり、切り抜いてくれたり、特定の要素を取り除いてくれます。でも、深層学習を使った新しいAI機能は画像の内容を認識するわけです。

実は、Part-4 では、AI技術に絞って学習してもらっています。注意してほしいのは、2010年頃から搭載されている(古い)AI機能と最近のニューラルネットを使った新しいAI機能が混在していること。得意不得意がある。そこを理解するとAI機能を賢く使いこなせます


Adobeは、PhotoshopのYouTubeチャンネルでAdobe Senseiを使った新機能「Select Subject」のスニークピークビデオを公開しました。昨年の11月27日です。
そして、今年(2018年)の1月アップデートのPhotoshop CC 19.xバージョンで正式に搭載されました。日本語版では「被写体を選択」というAI機能ですね。

公式サイトにはこう書かれています。

「被写体を選択」は、先進の機械学習テクノロジーを活かして、人物、動物、乗り物、おもちゃなど、画像に含まれるさまざまな題材を認識するよう学習されています。

こんなAI機能が、Photoshopに次々と搭載されていく。
3時間かかっていた作業が30分になる。

Adobe Senseiは、私たちユーザーのデータから学び、あるいはAdobe Stock(1億点以上のアセットの集合体)の中のプロフェッショナルなクリエイティブアセットを常に学習し続けています。
そして、どんどん賢くなっていくわけです。
(今の機能を見て「こんなものか」と思ってはいけません...)

Adobe Sensei の技術は、Adobe製品およびサービスにおいて、すでに50以上の機能を提供しており、例えば、視覚障害のユーザーがPDFの内容を得られるように、意味構造の分析(semantic structure analysis)・文書フローの抽出(document flow extraction)などもAIで実行しています。
※日本語の公式サイトでは「30種類以上の機能」と書かれていますが、USのサイトは「50以上」となっています(2018年2月現在)。


明日の朝勉強会へ

投稿日:2018年2月23日(金)午前6時

この記事が気に入ったらサポートをしてみませんか?