見出し画像

サム・アルトマンがOpenAIの役員に復帰《技術革新の最前線》Midjourney vs Stability AI: 画像生成AIの戦い


この記事は、下記の方に特にお勧めです

  • ✅ AIとテクノロジーに情熱を持つ人

  • ✅ AIの倫理性やガバナンスに興味がある人

  • ✅ クリエイティブ産業に携わる人

  • ✅ 科学的研究の新たな手法に興味がある人

  • ✅ 最新のAIトレンドやニュースを追いかける人

要約

サム・アルトマンがOpenAI取締役会に戻り、新たな展開が期待されます。一方で、MidjourneyとStability AI間での画像生成AIの対立が起こり、LLMが神経科学の専門家を上回る進歩を遂げました。また、Soraというビデオ生成ツールがクリエイティブ産業に新たな可能性をもたらすことが期待されています。

【AIの未来を塗り替える】サム・アルトマンがOpenAI取締役会に復帰!

サイード・エザティ
2024年3月10日翻訳記事

メールでのfb tw

今日のメール
LLMが神経科学の結果予測で人間の専門家を上回る

マルケス(MKBHD)がSoraについてOpenAIチームにインタビューしている。

🪆 不気味なAI人形の谷へようこそ

10の新しいAIツールとリソース。ツールの全リストはオンライン版をご確認ください。

サム・アルトマンがOpenAIの取締役会に復帰し、その支配権を主張

OpenAIは本日、アルトマンが席を失い、OpenAIのCEOから追い出されてから数カ月後に、同社の取締役会に再び参加することを発表した。アルトマンの他に、ビル・アンド・メリンダ・ゲイツ財団の元CEOであるスー・デスモンド・ヘルマン、元ソニー・エンタテインメント社長のニコル・セリグマン、Instacart CEOのフィジ・シモの3名が新たに加わり、OpenAIの取締役会は8名体制となる。

デズモンド・ヘルマン、セリグマン、シモの就任により、移行理事会(11月のアルトマン解任後に結成された理事会)のメンバーは退任しない。Salesforceの共同CEOであるブレット・テイラー(OpenAIの現取締役会議長)、QuoraのCEOであるアダム・ダンジェロ、経済学者で元ハーバード大学学長のラリー・サマーズは、マイクロソフトが任命した取締役会のオブザーバーであるディー・テンプルトンと同様に、取締役会の役割に留まる。

OpenAIは、多様性を高めるために新しい取締役を加え、ガバナンスを改善するための変更を実施することで、論争を乗り越えようと努力してきた。しかし、同社は現在進行中のSECの調査や、ジェネレーティブAIが社会やテクノロジー業界に与える影響に関するより広範な懸念など、依然として精査に直面している。

この事件は、透明性、リーダーシップ、倫理的・社会的課題を乗り越える上でのAI企業の役割に関する議論を巻き起こした。OpenAIは、人類の利益のためにAIを発展させるという使命に集中することを目指しているが、アルトマンの更迭とその後の展開からの影響は、同社とそのリーダーシップの将来の方向性についての議論を呼び起こし続けている。

MidjourneyがStability AIを画像窃盗で告発、従業員を出入り禁止に

最近、Midjourney(MJ)とStable Diffusionの開発元であるStability AIとの間で、画像の盗用疑惑をめぐって対立が起きている。AI愛好家のニック・サン・ピエール氏のツイートによると、Stability AIの従業員がMidjourneyのデータベースからプロンプトと画像のペアを盗んだとして告発され、24時間のサービス停止につながった。報復として、MidjourneyはStability AIの全従業員に対し、サービスの利用を禁止した。

事件の余波で、MidjourneyのCEOであるDavid Holz氏とStability AIのCEOであるEmad Mostaque氏の両名がコメントした。ホルツは盗難を確認し、彼のチームがより多くの情報を集めていると述べた一方、モスタケは盗難への関与を否定し、調査への協力を申し出た。このやりとりは、CEOたちが事態を友好的に処理しようとしていることを示唆している。

両社は画像生成AIを開発するビジネスを行っているため、この皮肉な状況は注目されていない。この論争はまだ続いており、盗難の責任はいったい誰にあるのか、あるいはStability AIがこの行為を指示する役割を担っていたのかどうかについての詳細は限られている。テック業界は、2つの著名なAI画像生成企業間のこの論争がどのように解決されるかを注視している。

LLMが神経科学の結果予測で人間の専門家を上回る

Xiaoliang Luo氏が率いる最近の研究で、大規模言語モデル(LLM)が人間の専門家よりも高い精度で神経科学実験の結果を予測できることが実証された。神経科学文献に基づいて微調整された70億パラメーターのGPT-3.5モデルを使用したこのチームのAIは、BrainBenchと呼ばれるベンチマークにおいて、いくつかの神経科学サブフィールドにわたって人間の予測を上回った。この進歩は、AIが、特に神経科学のような複雑な分野において、研究者をより有望な実験手段へと導くことで、科学研究の効率と集中力を大幅に向上させる可能性を示唆している。

今回の発見は、LLMが分野固有のデータで微調整された場合、科学文献の複雑なパターンを把握し、研究結果について情報に基づいた予測を可能にすることを明らかにした。この文脈でのAIの利用は、可能性の高い実験に優先順位をつけることで科学的発見を加速させるだけでなく、研究費における資源配分を最適化し、実験の冗長性を減らす可能性も秘めている。この研究は神経科学に焦点を当てているが、その意味は他の科学領域にも及び、研究プロセスにおける補完的なツールとしてのAIの役割を強調している。

しかし、この研究の範囲と、ベンチマークのための抄録に依存していることから、より広範な科学的文脈と、より包括的なデータソースでこれらの知見を検証するために、さらなる調査が必要である。有望な結果が得られたとはいえ、AIの役割は人間の専門知識を補完するものであり、科学研究に内在する批判的かつ創造的な意思決定を代替するものではなく、強化するためのデータ主導の視点を提供するものと考えるべきである。今後の方向性としては、AIの他分野への応用拡大、モデル能力の向上、科学的な場面での倫理的なAIの使用、イノベーションと発見を推進するためのAIと人間の専門知識とのコラボレーションを重視することなどが挙げられる。

Marques(MKBHD)がSoraについてOpenAIチームに語った。

OpenAIのBill Peebles、Tim Brooks、Aditya RameshとMarques Brownlee (MKBHD)によるインタビューで語られた。Soraは、DALL-Eのような拡散モデルとGPTのような大規模な言語モデルをブレンドしたビデオ生成ツールで、テキストプロンプトから写実的なビデオを作成します。ビデオの長さ、アスペクト比、解像度に汎用性があるが、機能を洗練させ、安全性を確保するためのフィードバック収集段階であるため、まだ一般利用はできない。

Soraは、フォトリアリズムと、スタイル入力を可能にする長い動画の生成に強みを発揮するが、手のレンダリング、物理演算、一貫したカメラの動きの維持に課題を抱えている。OpenAIは、Soraをさらに強化するためのフィードバック収集に注力しており、ユーザーコントロールの改善や、AIが生成したコンテンツを区別するための実績分類器の追加など、DALL-Eで行われた進歩のような機能を考えている。

Soraの可能性はOpenAIチームを興奮させる。メディア制作の新たな可能性を開き、クリエイティブ産業に大きな影響を与える可能性があるからだ。しかし、Soraを使った動画の生成には時間がかかるため、チームはこのような技術の両刃の性質を念頭に置き、責任ある使用と、誤用や誤った情報の拡散を防ぐ安全対策の実施の必要性を強調している。


この記事が気に入ったらサポートをしてみませんか?