(和訳) $NVDA Q4 2024 Transcript カンファレンスコール

コレット・クレス

ありがとう、シモーナ。第4四半期も記録的な四半期となりました。売上高は221億ドルで、前四半期比22%増、前年同期比265%増となり、見通しの200億ドルを大きく上回りました。2024年度の売上高は609億ドルで、前年比126%増となりました。

まずはデータセンターから。2024年度のデータセンターの売上高は475億ドルで、前年度から3倍以上に増加した。世界は新たなコンピューティング時代の転換点を迎えている。1兆ドル規模のデータセンター・インフラの設置ベースは、汎用コンピューティングから高速コンピューティングへと急速に移行している。

ムーアの法則が減速する一方でコンピューティング需要が急増し続ける中、企業はパフォーマンス、TCO、エネルギー効率の将来的な改善を推進するため、あらゆるワークロードを加速させる可能性がある。同時に、企業は次世代の最新データセンター、いわゆるAIファクトリーの構築に着手している。AIファクトリーは、生のデータを精製し、生成型AIの時代に価値あるインテリジェンスを生み出すことを目的として構築されている。

第4四半期のデータセンターの売上高は184億ドルで、NVIDIA Hopper GPUコンピューティング・プラットフォームとInfiniBandエンド・ツー・エンド・ネットワーキングが牽引し、前四半期比27%増、前年同期比409%増となり、過去最高を記録した。コンピューティングの売上高は前年比5倍以上、ネットワーキングの売上高は3倍に増加しました。Hopperアーキテクチャ製品の供給が改善していることを喜ばしく思います。Hopperに対する需要は依然として非常に旺盛です。需要が供給をはるかに上回っているため、当社の次世代製品は供給制約を受けると予想しています。

第4四半期のデータセンターの成長は、幅広い産業、ユースケース、地域にわたる生成AIと大規模言語モデルのトレーニングと推論の両方によってもたらされました。当社のデータセンター・プラットフォームの多用途性とトップクラスの性能は、AIのトレーニングや推論、データ処理、幅広いCUDAアクセラレーション・ワークロードなど、多くのユースケースで高い投資対効果を実現します。昨年度のデータセンター収益の約40%はAI推論向けであったと推定しています。

AIソリューションの構築と展開は、事実上あらゆる業界に及んでいます。ハイパースケール、GPU特化型、プライベートクラウド、またはオンプレミスを含むクラウドプロバイダーを通じてNVIDIA AIインフラストラクチャを利用する企業は、業界を問わず多くの企業がAIモデルとサービスを大規模にトレーニングし、運用しています。

エヌビディアのコンピューティングスタックは、クラウドとオンプレミス環境をシームレスに拡張し、顧客がマルチクラウドやハイブリッドクラウド戦略で展開できるようにします。第4四半期には、大規模なクラウドプロバイダーがデータセンター収益の半分以上を占め、社内のワークロードと社外のパブリッククラウド顧客の両方をサポートしました。

Microsoftは最近、5万を超える組織がGitHub Copilotビジネスを使って開発者の生産性を高めており、GitHubの収益成長が前年比40%に加速していることを指摘した。また、Copilot for Microsoft 365の導入は、最初の2カ月間で、過去2回の主要なMicrosoft 365エンタープライズ・スイートのリリースを上回るペースで伸びた。

コンシューマー・インターネット企業はAIをいち早く採用し、当社の最大の顧客カテゴリーの一つとなっている。検索からeコマース、ソーシャルメディア、ニュース、動画サービス、エンターテインメントに至るまで、さまざまな企業がディープラーニングに基づく推薦システムにAIを活用している。これらのAI投資は、顧客エンゲージメント、広告会話、クリックスルー率を改善することで、強力なリターンを生み出している。

Metaの最新四半期では、より正確な予測と広告主のパフォーマンス向上が収益の大幅な加速に寄与しているとしている。さらに、消費者向けインターネット企業は、コンテンツや広告作成のための自動化ツール、オンライン商品説明、AIショッピング支援を通じて、コンテンツ作成者、広告主、顧客をサポートするためのジェネレーティブAIに投資している。

エンタープライズ・ソフトウェア企業は、顧客の生産性向上を実現するためにジェネレーティブAIを適用している。ジェネレーティブAIの学習と推論の両面で当社が提携した初期の顧客は、すでに顕著な商業的成功を収めている。

ServiceNowのジェネレーティブAI製品は、最新四半期にリリースされた新製品ファミリーの中で、過去最大の純新規年間契約額貢献を達成しました。私たちは、Adobe、Databricks、Getty Images、SAP、Snowflakeなど、他の多くの主要なAIおよびエンタープライズ・ソフトウェア・プラットフォームとも提携しています。

大規模言語モデルの基礎分野が盛り上がっている。Anthropic、Google、Inflection、Microsoft、OpenAI、xAIが、生成AIの驚くべきブレークスルーを続けてリードしている。Adept、AI21、Character.ai、Cohere、Mistral、Perplexity、Runwayといったエキサイティングな企業が、企業やクリエイターにサービスを提供するプラットフォームを構築している。新しいスタートアップは、世界の多くの地域の特定の言語、文化、習慣に対応するLLMを作成している。

また、Recursion Pharmaceuticals社やGenerate:Biomedicines社のように、生物学とは全く異なる業界に対応する基盤モデルを構築している企業もあります。これらの企業は、ハイパースケールやGPUに特化したクラウドプロバイダーを通じて、NVIDIA AIインフラストラクチャの需要を促進しています。ちょうど今朝、我々はGoogleと協力し、その最先端の新しいGemma言語モデルを最適化し、クラウドデータセンターとPCのNVIDIA GPU上で推論性能を加速させることを発表しました。

この1年で最も注目すべきトレンドの1つは、自動車、ヘルスケア、金融サービスなどの業界垂直領域全体で企業がAIを大幅に採用していることです。NVIDIAは、自律走行、創薬、不正検知やロボット工学のための低遅延機械学習などの垂直領域で企業がAIを採用するのを支援するために、当社のフルスタック・アクセラレーション・コンピューティング・プラットフォームを活用した複数のアプリケーション・フレームワークを提供しています。

クラウドまたはオンプレミスを通じた自動車産業のデータセンター収益貢献は、昨年10億ドルを超えたと推定している。NVIDIA DRIVEインフラストラクチャ・ソリューションには、データの取り込み、作成、ラベリング、AIトレーニング、さらにシミュレーションによる検証を含む、自律走行開発のためのシステムとソフトウェアが含まれる。

世界的なOEM、新エネルギー車、トラック輸送、ロボットタクシー、ティア1サプライヤーにまたがるほぼ80の自動車メーカーが、自動運転やAIコックピットアプリケーションのために、LLMやその他のAIモデルを訓練するためにNVIDIAのAIインフラストラクチャを使用しています。そして実際、AIに取り組んでいるほぼすべての自動車関連企業がNVIDIAと連携している。AVアルゴリズムがビデオトランスに移行し、より多くの自動車にカメラが搭載されるにつれて、NVIDIAの車載データセンターの処理需要は大きく伸びると予想しています。

ヘルスケアでは、デジタルバイオロジーとジェネレーティブAIが、創薬、手術、医療用画像処理、ウェアラブルデバイスの改革に貢献しています。私たちは、過去10年間にわたり、NVIDIAクララ・ヘルスケア・プラットフォームや、コンピュータ支援創薬のためのAI基盤モデルを開発、カスタマイズ、展開するジェネレーティブAIサービスであるNVIDIA BioNeMoを開発し、ヘルスケア分野における深い専門知識を築いてきました。

BioNeMoは、エンドツーエンドの創薬プロセスに適用可能な、事前訓練された生体分子AIモデルのコレクションを増やしています。当社は、リカージョンがBioNeMoを通じて、創薬エコシステム向けに同社独自のAIモデルを利用できるようにすることを発表した。金融サービスでは、顧客は取引やリスク管理から顧客サービスや不正検出に至るまで、拡大するユースケースにAIを使用している。例えば、アメリカン・エキスプレスは、エヌビディアのAIを利用して、不正行為の検出精度を6%向上させた。

データセンターの地域別売上高に目を移す。10月に発動された米国政府の輸出規制を受けてデータセンター収入が大幅に減少した中国を除き、全地域で堅調な伸びを示しました。当社は米国政府から中国向け輸出規制対象製品の出荷ライセンスを取得していませんが、中国市場向けにライセンス不要の代替製品の出荷を開始しています。第4四半期のデータセンター売上高に占める中国の割合は1桁台半ばでした。第1四半期も同程度になると予想しています。

米国と中国以外の地域では、ソブリンAIがさらなる需要促進要因となっている。世界各国は、自国語による大規模言語モデルの構築をサポートするため、また自国内のデータを活用し、自国の研究や企業エコシステムをサポートするため、AIインフラに投資している。製品面では、収益の大部分は当社のHopperアーキテクチャとInfiniBandネットワーキングによるものです。この2つを合わせて、アクセラレーテッド・コンピューティングとAIインフラストラクチャのデファクト・スタンダードとなりました。

H200は第2四半期に初回出荷を予定しており、順調に立ち上がりつつある。H200 の推論性能は H100 のほぼ 2 倍であり、需要は旺盛である。ネットワーキングは年間売上高130億ドルを突破しました。当社のエンドツーエンド・ネットワーキング・ソリューションは、最新のAIデータセンターを定義するものです。当社のQuantum InfiniBandソリューションは前年比5倍以上の成長を遂げました。

NVIDIA Quantum InfiniBandは、最高性能のAI専用インフラの標準です。当社は現在、データセンター向けにAIに最適化されたネットワーキングを実現するために設計された新しいSpectrum-Xエンド・ツー・エンドの提供を開始し、イーサネット・ネットワーキング分野に参入しています。Spectrum-Xは、AI向けに構築されたイーサネット上の新技術を導入します。当社のSpectrumスイッチ、BlueField DPU、ソフトウェアスタックに組み込まれたテクノロジーは、従来のイーサネットと比較して、AI処理向けに1.6倍のネットワーキング性能を実現します。

デル、HPE、レノボ、スーパーマイクロなどの大手OEMとそのグローバルな販売チャネルが、当社のAIソリューションを世界中の企業に拡大するために提携しています。今四半期にはSpectrum-Xを出荷する予定です。また、ソフトウェアとサービスの提供でも大きな進展があり、第4四半期には年換算売上高が10億ドルに達しました。NVIDIA DGX Cloudは、Microsoft Azure、Google Cloud、Oracle Cloudに加え、Amazon's AWSもパートナーリストに加えることを発表しました。DGX Cloudは、NVIDIAの開発者だけでなく、NVIDIA自身のAI R&Dやカスタムモデル開発にも使用される。これにより、CUDAエコシステムがNVIDIA CSPパートナーにもたらされる。

さて、ゲームの話に移ります。ゲーム事業の売上高は28億7,000万ドルで、前四半期比横ばい、前年同期比では56%増となりました。会計年度の売上高は104億5,000万ドルで、15%増となりました。CESでは、GPUのGeForce RTX 40スーパーシリーズファミリーを発表しました。599ドルからスタートし、驚異的なゲーム性能とジェネレーティブAI機能を提供します。販売は好調なスタートを切っています。

NVIDIA AI TensorコアとGPUは、最大836のAIトップを提供し、ゲーム用AIのパワーアップや日常の生産性向上に最適です。当社のRTX GPUとともに提供する豊富なソフトウェア・スタックは、AIをさらに加速させます。当社のDLSSテクノロジーにより、8ピクセルのうち7ピクセルをAIで生成することができるため、レイトレーシングが最大4倍高速化し、画質が向上します。また、Tensor RT LLM for Windowsを使えば、最新の大規模言語モデル生成AIの推論性能を加速するオープンソースライブラリを、RTX AI PC上で最大5倍高速に実行することができます。

また、CESでは、各主要OEMから新しいRTX 40シリーズAIノートPCが相次いで発表されました。これらは、14インチや薄型軽量のノートPCを含む幅広いフォームファクターに高性能ゲームとAI機能をもたらします。最大686倍のAI性能を持つこれらの次世代AI PCは、ジェネレーティブAIの性能を最大60倍向上させ、最高性能のAI PCプラットフォームとなります。CESでは、NVIDIA Avatar Cloud Engineマイクロサービスを発表し、開発者が最先端のジェネレーティブAIモデルをデジタルアバターに統合できるようにしました。ACEは、Best of CES 2024を複数受賞しました。

NVIDIAは、RTX PCとワークステーション向けにジェネレーティブAIアプリケーションを構築し、展開するためのエンドツーエンドのプラットフォームを提供しています。これには、開発者がジェネレーティブAIワークロードに組み込むことができるライブラリ、SDK、ツール、サービスが含まれます。NVIDIAは、PCに登場するジェネレーティブAIアプリケーションの次の波を後押ししています。1億台以上のRTX PCがインストールされ、500以上のAI対応PCアプリケーションやゲームが提供されています。

プロビジュアライゼーションに移行。売上高は4億6,300万ドルで、前四半期比11%増、前年同期比105%増。会計年度の売上高は15億5,000万ドルで1%増。RTX AdaアーキテクチャーGPUの豊富な組み合わせが引き続き増加したことが、当四半期の順次成長の原動力となった。企業は、データ準備、LLM微調整、検索拡張世代などのジェネレーティブAI関連ワークロードをサポートするためにワークステーションをリフレッシュしている。

需要を牽引している主な産業分野には、製造業、自動車産業、ロボット産業などがあります。自動車業界もまた、設計から製造、シミュレーション、操作、そして工場や自動車を体験するまでのワークフローをデジタル化しようとしているため、NVIDIA Omniverseを早くから採用してきました。CESでは、Brickland、WPP、ZeroLightを含むクリエイティブ・パートナーやデベロッパーが、Omniverseを搭載したカー・コンフィギュレーターを構築していることを発表しました。LOTUSのような大手自動車メーカーがこの技術を採用し、自動車購入体験に新たなレベルのパーソナライゼーション、リアリズム、インタラクティブ性をもたらしています。

自動車部門に移る。売上高は前四半期比8%増、前年同期比4%減の2億8100万ドルでした。自動車メーカーによるエヌビディア・ドライブ・プラットフォームの継続的な採用により、会計年度の売上高は21%増の10億9,000万ドルとなり、初めて10億ドルの大台を超えた。NVIDIA DRIVE Orinは、ソフトウェア定義のAVフリート向けに選択されるAIカーコンピュータである。

その後継であるNVIDIA DRIVE Thorは、ビジョントランスフォーマー向けに設計されており、より高いAI性能を提供し、自律走行や駐車、ドライバーや乗客のモニタリング、AIコックピット機能など、幅広いインテリジェント機能を単一のAIコンピュートプラットフォームに統合し、来年には利用可能になる予定だ。今四半期は自動車関連顧客の発表がいくつかあり、李汽車、長城汽車、吉利汽車のプレミアムEV子会社であるZEEKR、ジェレミー・シャオミのEVはいずれも、エヌビディアを搭載した新型車を発表した。

P&L.のその他の部門に話を移す。GAAPベースの売上総利益率は76%に、非GAAPベースの売上総利益率は76.7%に前四半期比で拡大しました。第4四半期の売上総利益率は、コンポーネント・コストの好影響を受けた。前四半期比でGAAPベースの営業費用は6%増、非GAAPベースの営業費用は9%増となりましたが、これは主にコンピュートおよびインフラ投資の増加と従業員の増加を反映しています。

第4四半期には、自社株買いおよび現金配当の形で28億ドルを株主に還元した。24会計年度には、95億ドルの自社株買いを含め、99億ドルの現金を株主還元に充当した。

第1四半期の見通しについてご説明します。総収益は 240 億ドル、プラスマイナス 2%の見込みです。データセンター事業とプロビズ事業が前四半期比で増加する見込みですが、ゲーム事業の季節的な減少により一部相殺されます。GAAPベースの売上総利益率は76.3%、非GAAPベースの売上総利益率は77%(プラスマイナス50ベーシス・ポイント)を見込んでいます。第 4 四半期と同様、第 1 四半期の売上総利益率も、コンポーネント・コストの好影響を受けている。第1四半期以降、通年では、粗利益率は70%台半ばに戻ると予想される。

GAAPベースの営業費用は約35億ドル、非GAAPベースの営業費用は約25億ドルとなる見込みです。2025年度のGAAPベースの営業費用および非GAAPベースの営業費用は、今後の大きな事業機会への投資を継続するため、30%台半ばの成長が見込まれます。

GAAP基準および非GAAP基準のその他の収益および費用は、非関連投資からの損益を除き、約2億5,000万ドルの利益を見込んでいる。GAAPおよびnon-GAAPベースの税率は、個別項目を除きプラスマイナス1%の17%となる見込みです。財務の詳細については、CFOのコメントおよびIRウェブサイトで入手可能なその他の情報に記載されています。

最後に、金融業界向けの今後のイベントをいくつかご紹介しましょう。私たちは3月4日にサンフランシスコで開催されるモルガン・スタンレーのテクノロジー・メディア・テレコム会議と、3月5日にボストンで開催されるTDコーウェンの第44回年次ヘルスケア会議に出席します。そしてもちろん、3月18日(月)からカリフォルニア州サンノゼで開催される年次DTCカンファレンスにもご参加ください。DTCはジェン・スンの基調講演で幕を開け、翌19日には金融アナリスト向けの質疑応答セッションを開催する予定です。

それでは、質問を受け付けます。オペレーター、質問をお願いします。

質疑応答

オペレーター

[最初のご質問はゴールドマン・サックスの針俊哉さんからです。お待たせいたしました。

針 俊也

ご質問をいただきありがとうございます。データセンター事業について質問します。この事業が非常に好調であることは明らかです。この90日間で、24年と25年のカレンダーに対する見通しがどのように変わったのか気になります。

また、質問に答えていただく中で、データセンター内の新しいバケット、ソフトウェアのようなものについても触れていただければと思います。ソブリンAIについては、中長期的にどのように考えるかについて、かなり積極的に発言されていると思います。最近、エヌビディアがASIC市場に参入する可能性があるという記事がありました。もしそうだとしたら、今後数年間、あなた方がその市場でプレーすることについて、私たちはどのように考えるべきでしょうか?ありがとうございました。

ジェンセン・ファン

ありがとう、トシヤ。見てみよう。質問は3つあった。最初の質問は......いいですか?

針 俊也

データセンターへの期待、その進化についてお聞かせください。ありがとうございました。

ジェンセン・ファン

オーケー。まあ、1四半期ずつご案内しています。しかし基本的には、24年暦年から25年暦年、そしてそれ以降も成長し続けるための絶好の条件が整っています。その理由は?私たちは今、業界全体で2つの転換期を迎えています。ひとつは、汎用コンピューティングからアクセラレーテッド・コンピューティングへの移行です。ご存知のように、汎用コンピューティングは息切れし始めています。CSPの延長や、私たちの汎用コンピューティングを含む多くのデータセンターが減価償却を4年から6年に延長していることからもわかります。

以前のようにスループットを根本的に劇的に向上させることができないのに、CPUを増やしてアップデートする理由はない。そのため、すべてを高速化する必要があります。これは、NVIDIAが以前から先駆的に取り組んできたことです。そして、加速されたコンピューティングによって、エネルギー効率を劇的に改善することができます。データ処理にかかるコストを20対1で劇的に改善できます。そしてもちろん、スピードも。このスピードは非常に驚異的で、私たちはジェネレーティブAIと呼ばれる業界全体の第二の転換を可能にしました。

ジェネレーティブAIについては、通話中にたくさん話すことになるだろう。しかし、ジェネレーティブAIは新しいアプリケーションであることを忘れないでほしい。ジェネレイティブAIは、ソフトウェアの新しいやり方を可能にし、新しいタイプのソフトウェアが生み出されている。新しいコンピューティングの方法なのだ。従来の汎用コンピューティングではジェネレーティブAIはできません。加速させる必要がある。

そして3つ目は、まったく新しい産業を可能にしているということです。これは一歩下がって見てみる価値のあることで、AIという主権についての最後の質問にもつながります。まったく新しい産業というのは、データセンターが初めて、単にデータを計算したり、データを保存したり、企業の従業員にサービスを提供したりするためだけのものではなくなったということです。私たちは今、AIを生成する、AI生成工場という新しいタイプのデータセンターを手に入れたのです。

私がAI工場と表現しているのを聞いたことがあるだろう。しかし、基本的には、エヌビディアが構築したAIスーパーコンピューターによって、データという原材料を変換し、それを非常に価値のあるトークンに変えるのです。これらのトークンは、人々が素晴らしいChatGPTやMidjourney、あるいは最近の検索で体験するものです。すべてのレコメンダー・システムが、それに伴う超パーソナライゼーションによって拡張されているのです。

デジタル生物学、タンパク質の生成、化学物質の生成など、数え上げればきりがない。これらのトークンはすべて、非常に特殊なデータセンターで生成されます。このデータセンターを私たちはAIスーパーコンピューターやAI生成工場と呼んでいる。しかし、私たちは多様性を目の当たりにしています。それが新しい市場に現れる方法は、皆さんが私たちを見ている多様性のすべてです。

ひとつは、推論の量が桁外れに増えたことです。ChatGPTを使うたびに推論しています。Midjourneyを使うたびに、私たちは推論しています。SoraのビデオやRunwayのビデオ、Fireflyなど、NVIDIAは推論を行っています。私たちのビジネスにおける推論の部分は、驚異的に成長しています。私たちは40%程度と見積もっています。トレーニングの量も増え続けていますし、モデルがどんどん大きくなっているので、推論の量も増えています。

しかし、新しい産業への多角化も進んでいる。大手のCSPは、現在も拡張を続けています。彼らの設備投資や議論を見ればわかりますが、GPU特化型CSPという全く新しいカテゴリーがあります。彼らはエヌビディアのAIインフラに特化しており、GPUに特化したCSPです。エンタープライズ・ソフトウェア・プラットフォームはAIを導入しています。ServiceNowは本当に素晴らしい例です。アドビもそうだ。SAPやその他の企業もあります。消費者向けインターネット・サービスでは、これまでのサービスをすべてジェネレーティブAIで補強しています。そのため、よりパーソナライズされたコンテンツを作成することができる。

私たちは産業用ジェネレーティブAIについて話しています。私たちの業界は、自動車、医療、金融サービスなど、数十億ドル規模のビジネスを展開しています。私たちの産業は、自動車、医療、金融サービスなど、合計で数十億ドル規模のビジネスとなっています。そしてもちろん、ソブリンAIです。ソブリンAIの理由は、各地域の言語、知識、歴史、文化が異なり、独自のデータを所有しているという事実に関係しています。

彼らは自分たちのデータを使い、それを訓練して自分たち独自のデジタル・インテリジェンスを作り、それを提供して自分たちでその原材料を活用したいと考えている。世界中のそれぞれの地域のものなのだ。データは彼らのものだ。データは彼らの社会にとって最も有用なものだ。だから彼らはデータを守りたい。自分たちでデータを変換し、付加価値を高め、AIに変換し、自分たちでサービスを提供したいのだ。

日本、カナダ、フランス、その他多くの地域でAIのインフラが構築されている。そして私が期待しているのは、ここアメリカや欧米で経験されていることが世界中で再現され、こうしたAI生成工場があらゆる産業、あらゆる企業、あらゆる地域に出現するだろうということだ。この1年で、ジェネレーティブAIがまったく新しいアプリケーション空間、まったく新しいコンピューティングの方法、まったく新しい産業が形成され、それが私たちの成長の原動力になっていると思います。

オペレーター

次の質問はモルガン・スタンレーのジョー・ムーアです。お待たせしました。

ジョー・ムーア

素晴らしい。ありがとう。収益の40%が推論によるものということで、フォローアップしたいと思います。予想以上に大きな数字です。この数字が1年前にはどの程度だったのか、推論によるLLMがどの程度伸びているのか、教えていただけますか?また、それをどのように測定しているのですか?トレーニングや推論に使っているGPUと同じGPUを使っている場合もあると思いますが。その測定はどの程度確かなものなのでしょうか?ありがとうございます。

ジェンセン・ファン

逆算してみる。見積もりはおそらく控えめです。しかし、私たちはそれを見積もった。その理由をお話ししましょう。ご存知のように、インターネットには何兆もの--何兆かわかりませんが、何兆ものものがあり、あなたの携帯電話は3インチ四方です。インターネットには何兆、何兆というものがありますが、あなたの携帯電話は3インチ四方です。そのような小さな領域にすべての情報を収めることができるのは、レコメンダー・システムと呼ばれる驚くべきシステムによるものです。

これらのレコメンダー・システムは、以前はすべてCPUのアプローチに基づいていた。しかし、最近のディープラーニングやジェネレーティブAIへの移行により、これらのレコメンダーシステムはGPUアクセラレーションに直接移行するようになった。埋め込みにはGPUアクセラレーションが必要だ。最近傍探索にはGPUアクセラレーションが必要だ。再ランキングにはGPUアクセラレーションが必要であり、あなたのための拡張情報を生成するにはGPUアクセラレーションが必要なのだ。

つまり、GPUは今やレコメンダー・システムのあらゆるステップに組み込まれているのです。ご存知のように、レコメンダー・システムは地球上で唯一最大のソフトウェア・エンジンです。世界中のほとんどの大企業が、こうした大規模なレコメンダー・システムを稼働させています。ChatGPTを使うときはいつも、推論されているのです。Midjourneyのことを耳にするたびに、彼らが消費者のために生成しているものの数を思い浮かべるでしょうし、ゲッティ(Getty)やアドビ(Adobe)のファイアフライ(Firefly)の仕事もそうです。これらはすべてジェネレーティブ・モデルです。数え上げればきりがありません。どれも1年前には存在しなかったもので、100%新しいものです。

オペレーター

次の質問は、バーンスタイン・リサーチのステイシー・ラスゴンです。お待たせしました。

ステイシー・ラスゴン

やあ、みんな。私の質問に答えてくれてありがとう。コレットが、次世代の製品--ブラックウェルのことだと思いますが--は供給が制限されると予想しているというコメントについて触れたいと思いました。その要因は何でしょうか?ホッパーが緩和されつつある中で、なぜ供給が制約されるのでしょうか?また、いつまで供給制約が続くと予想されていますか?例えば、25年までずっと次世代製品の供給制約が続くと予想されていますか?

ジェンセン・ファン

そうだね。まず第一に、全体的に供給が改善しています。ウェハー、パッケージング、メモリ、すべての電源レギュレータ、トランシーバー、ネットワーク、ケーブルなど、あらゆるものがそうです。ご存知のように、NVIDIA GPUはチップのようなものだと思われています。しかし、NVIDIA Hopper GPUには35,000もの部品があります。重さは70ポンドもあります。これらは本当に複雑なものです。AIスーパーコンピューターと呼ばれるのには理由があります。データセンターの裏側を見てみると、システム、ケーブルの配線システムは気の遠くなるようなものです。世界が見たこともないような高密度で複雑な配線システムだ。

当社のInfiniBandビジネスは前年比5倍の成長を遂げました。サプライチェーンは本当に素晴らしいサポートをしてくれています。全体的に供給は改善しています。今後も需要は供給を上回ると見ています。サイクルタイムも改善しており、今後もベストを尽くすつもりです。しかし、新製品が出るたびに、ご存知のように、ゼロから非常に大きな数字になる。一朝一夕にはできません。すべてが急成長するのです。ステップアップはしない。

そのため、新世代の製品が出るたびに--そして今、私たちはH200を増産している。H200を増産している最中だが、短期的に需要に追いつくことは不可能だ。Spectrum-Xの増強も進めている。Spectrum-Xは非常に好調です。Spectrum-Xは、イーサネットの世界における当社の新製品です。InfiniBandはAI専用システムの標準です。Spectrum-Xのイーサネットは、スケールアウトシステムとしてはあまり優れていません。

しかし、Spectrum-Xでは、イーサネットの上に、アダプティブ・ルーティング、輻輳制御、ノイズ・アイソレーション、トラフィック・アイソレーションといった基本的な新機能を追加し、AI向けにイーサネットを最適化できるようにした。InfiniBandはAI専用インフラとなる。Spectrum-Xは、AIに最適化されたネットワーキングで、現在急ピッチで開発が進んでいます。これは新製品の性質なので、需要を取り込むためにできる限り迅速に取り組んでいます。しかし、全体的に見れば、全体的に見れば、供給は非常に順調に増加しています。

オペレーター

次の質問はTDコーウェンのマット・ラムジーです。お待たせしました。

マット・ラムジー

こんにちは、ジェンセン、コレット。結果おめでとう。2つの質問に分けてお聞きしたいのですが、ステイシーがおっしゃったように、供給が改善しているにもかかわらず、需要が供給を大きく上回っているということです。まず、コレットに質問したいのですが、顧客に対する配備の準備状況や、まだ配備されていない製品が蓄積されていないかどうかの監視という点で、どのように製品の配分を考えているのでしょうか?

それから、ジェン・フスン、あなたについては、あなたとあなたの会社が、顧客(その多くは互いに競合している)、業界、小規模な新興企業、ヘルスケア分野、政府機関などにまたがって、製品の配分をどのように考えているのか、少しお聞かせいただければと思います。あなたが実現しようとしているのは非常にユニークな技術であり、あなたの会社のためだけでなく、業界のためにもなるような、引用/引用されないような公正な配分をどのように考えているのか、少し話してもらえるととても興味深いです。ありがとうございました。

コレット・クレス

まず、GPUインスタンスの構築方法と割り当てプロセスについて、お客様とどのように協力しているかというご質問から始めさせていただきます。私たちが協業しているお客様とは、クラウドでのセットアップも、社内でのセットアップも、私たちがサポートしてきた長年のパートナーです。

これらのプロバイダーの多くは、最終顧客だけでなく社内でも必要とされるさまざまなニーズに対応するため、複数の製品を同時に展開している。そのため、彼らはもちろん、必要となる新しいクラスタについて事前に考えて取り組んでいます。Hopperアーキテクチャだけでなく、彼らが次の波を理解し、関心を持ち、彼らが求める需要の見通しを得るのを助けるために、私たちは彼らと話し合いを続けています。

だから、彼らが何を購入し、何がまだ建設中で、何が最終顧客に使用されているかという点では、常に流動的なプロセスなんだ。しかし、私たちが築き上げた関係や、製造の高度さに対する彼らの理解は、その割り当てに大いに役立っているし、彼らとのコミュニケーションにも役立っている。

ジェンセン・ファン

第一に、CSPは当社の製品ロードマップと移行について非常に明確な見解を持っています。そして、CSPの皆様には、どの製品をいつ、どこに配置すればいいのか、その透明性によって確信を持っていただくことができます。そのため、CSPは当社のできる限りのタイミングを知ることができます。また、数量も把握していますし、もちろん配分も把握しています。私たちは公平に割り当てます。私たちは公平に配分します。私たちはできる限り公平な配分を行い、不必要な配分を避けるようにします。

先ほどおっしゃったように、データセンターの準備が整っていないのに、なぜ何かを割り当てるのか。何もかもが手つかずになってしまうことほど難しいことはありません。ですから、公平に割り当て、不必要な割り当てを避けるようにします。また、エンドマーケットについてのご質問ですが、私たちはOEM、ODM、CSP、そして非常に重要なエンドマーケットと優れたエコシステムを持っています。エヌビディアが本当にユニークなのは、私たちが顧客、パートナー、CSP、OEMを引き合わせ、彼らを顧客にすることです。

生物学企業、ヘルスケア企業、金融サービス企業、AI開発企業、大規模言語モデル開発企業、自律走行車企業、ロボット企業。まさに巨大なロボット企業が出現しているのだ。倉庫用ロボット、手術用ロボット、人型ロボット、あらゆる種類の実に興味深いロボット企業、農業用ロボット企業などがある。これらの新興企業、大企業、ヘルスケア、金融サービス、自動車などはすべて、エヌビディアのプラットフォーム上で動いています。私たちは彼らを直接サポートしています。

また、CSPに割り当てると同時に顧客をCSPに呼び込むことで、一挙両得になることもよくあります。このエコシステムが活気に満ちているのは、まったくその通りです。しかし、その根底にあるのは、無駄を省き、パートナーとエンドユーザーをつなぐ機会を探しながら公平に割り当てたいということです。そのような機会を常に探しています。

オペレーター

次の質問はUBSのティモシー・アークリです。お待たせしました。

ティモシー・アルクリ

ありがとうございます。バックログをどのように収益に変えているのかお聞きしたいのですが。明らかに、御社の製品のリードタイムはかなり短縮されています。コレット、あなたは在庫の購入コミットメントについて話しませんでしたね。しかし、在庫と購入コミットメント、前払い供給量を合計すると、実際には少し減少しています。これをどう読むべきでしょうか?リードタイムが短くなったので、サプライヤーに対してそれほど資金的なコミットメントをする必要がなくなったということなのでしょうか。それとも、ある種の定常状態に到達し、オーダーブックやバックログがより埋まってきたということなのでしょうか。ありがとうございます。

コレット・クレス

そうですね。では、私たちがどのようにサプライヤーを見ているのか、その3つの異なる分野について強調させてください。その通りです。手元にある在庫は、私たちが行っている割り当てを考慮すると、在庫が入ったらすぐにお客様に出荷するようにしています。私たちの顧客は、私たちが求めたスケジュールに対応する能力を高く評価してくれていると思います。

もうひとつは、購入の確約だ。パーチェス・コミットメントには、製造に必要な部品など、さまざまな要素が含まれています。製造に必要な部品だけでなく、必要な生産能力を調達することもあります。必要な生産能力や部品の調達期間はすべて異なります。2四半期先までのものもあれば、複数年にわたるものもあります。

予備品に関しても同じことが言える。私たちのプレパイドは、私たちが将来を見据えて、いくつかの製造サプライヤーで必要な予備能力を確保するためにあらかじめ設計されています。ですから、私たちが供給を増やしているのとほぼ同じ数字については、何も読み取らないでください。リードタイムが長いもの、あるいは生産能力が必要なものを購入しなければならないことがあるため、すべてのサプライヤーが異なる長さを持っています。

オペレーター

次の質問は、メリアス・リサーチのベン・ライツです。お待たせしました。

ベン・ライツ

そうだね。ありがとう。おめでとう。コレット、粗利率について、70年代半ばに戻るべきだというあなたのコメントについて話したいと思います。もし差し支えなければ、その点についてお聞かせください。また、それは新製品にHBMが含まれているためでしょうか?そのコメントの要因は何だとお考えですか?ありがとうございました。

コレット・クレス

そうだね。ご質問ありがとうございます。私たちは冒頭の挨拶で、第4四半期の業績と第1四半期の見通しについて強調しました。この2つの四半期はいずれもユニークなものです。この2つの四半期の売上総利益率は、コンピュートとネットワーキングの両方にまたがるサプライチェーンや、製造工程のいくつかの異なる段階において、有利な部品コストの恩恵を受けているため、ユニークなものとなっています。

そのため、今後の見通しとしては、今年度の残りの期間の売上総利益率は70%台半ばとなり、この第4四半期と第1四半期がピークとなる前の水準に戻る見通しです。そのため、ミックスのバランスに注目しています。ミックスは常に、今年度残りの出荷を左右する最大の要因になります。そして、これらはまさにドライバーなのです。

オペレーター

次の質問は、カントー・フィッツジェラルドのC.J.ミューズです。お待たせしました。

C.J.ミューズ

そうですね。こんにちは、質問を受けてくれてありがとう。Jen-Hsunさんにもっと大きな視点から質問します。過去10年間におけるGPUコンピューティングの100万倍以上の向上と、次の10年間における同様の向上への期待について考えるとき、御社の顧客は、現在行っているNVIDIAへの投資の長期的な有用性についてどのように考えていますか?今日のトレーニングクラスタは、明日の推論クラスタになるのでしょうか?どのようになるとお考えですか?ありがとうございました。

ジェンセン・ファン

やあ、CJ。質問ありがとう。ああ、そこが本当に素晴らしいところなんだ。私たちがこれほどまでにパフォーマンスを向上させることができる理由を考えてみると、私たちのプラットフォームには2つの特徴があるからです。ひとつは、高速化されていること。そして2つ目は、プログラマブルであること。脆くはありません。NVIDIAは、CNN、アレックス・クリシェフスキー、イリヤ・スーツケバー、ジェフ・ヒントンが初めてAlexNetを発表した、文字通りごく初期の段階から、RNN、LSTM、あらゆる......RL、ディープラーニングRL、トランスフォーマー、あらゆるバージョンに至るまで、すべての段階を経てきた唯一のアーキテクチャです。

ビジョン・トランスフォーマー、マルチモダリティ・トランスフォーマー、そしてタイム・シーケンスなど、あらゆるバージョン、あらゆる種類のAIが登場しましたが、私たちはそれをサポートし、スタックを最適化し、インストールベースに導入することができました。これが本当に素晴らしいところです。一方では、テンソルコアやテンソルコア用トランスフォーマーエンジンのような新しいアーキテクチャや新技術を発明し、テンソルコアのさまざまな世代で行ってきたような新しい数値フォーマットや処理構造を改良し、同時にインストールベースをサポートすることができます。

その結果、私たちは新しいソフトウェア・アルゴリズムに投資し、業界のモデルに関するすべての発明、新しい発明を生み出し、それを私たちのインストール・ベース上で稼働させることができる。その一方で、何か革命的なものを発見したときにはいつでも、たとえば変圧器のように、ホッパー変圧器エンジンのようなまったく新しいものを生み出し、それを未来に導入することができる。そうして私たちは同時に、インストール・ベースにソフトウェアを提供し、それをより良いものにしていく能力も持っている。

一方、新しい技術については、革命的な能力を生み出す。私たちの将来の世代で、突然、大規模言語モデルにおける驚くべきブレークスルーが可能になったとしても驚かないでください。そうして私たちは、一方では皆と一緒に行動し、他方では巨大なブレークスルーを成し遂げる。一方では巨大なブレークスルーを実現する。

オペレーター

次の質問はウェルズ・ファーゴのアーロン・レイカーズです。お待たせしました。

アーロン・レイカーズ

そうだね。質問に答えてくれてありがとう。中国ビジネスについてお聞きしたいのですが。準備されたコメントの中で、中国への代替ソリューションの出荷を開始したとおっしゃっていましたね。また、データセンター事業全体に対する寄与率は、今後も1桁台半ばになると予想しています。そこで質問なのですが、現在中国市場に出荷している製品の範囲はどの程度なのでしょうか。また、他の代替ソリューションが市場に投入され、御社のビジネスチャンスが再び拡大することを期待すべきではないでしょうか。ありがとうございました。

ジェンセン・ファン

核心は、米国政府がエヌビディアのアクセラレーテッド・コンピューティングとAIの最新機能を中国市場に限定したいと考えていることを覚えておいてください。そして米国政府は、私たちが中国でできるだけ成功することを望んでいます。この2つの制約、言ってみれば2本の柱の中に制約があるわけですから、新しい制約が出たときには一時停止せざるを得ませんでした。そのため、新たな規制が発表されると、私たちは一時中断せざるを得ませんでした。規制の内容を理解し、ソフトウェアがハッキングされないように製品を再設定しました。それには時間がかかった。そして、中国への製品提供をリセットし、現在は中国の顧客にサンプリングしている。

そして、制限の仕様の範囲内で、その市場で競争し、成功するためにベストを尽くすつもりだ。以上です。前四半期、私たちは......私たちは......私たちは......私たちは市場で一時停止したため、私たちのビジネスは大幅に減少しました。私たちは市場での出荷を停止しました。今期もほぼ同じになると予想しています。しかしその後、うまくいけば私たちはビジネスのために競争し、ベストを尽くすことができるでしょう。

オペレーター

次の質問はパイパー・サンドラーのハーシュ・クマールです。お待たせしました。

ハルシュ・クマール

ジェンスン、コレット、そしてNVIDIAの皆さん。まず最初に、素晴らしい四半期とガイドをおめでとうございます。ソフトウェア・ビジネスについて少しお話したいのですが、10億ドルを超えたというのは喜ばしいことです。言い換えれば、その成長がどこから来ているのかをよりよく理解するために、少し紐解いていただけないでしょうか。

ジェンセン・ファン

一歩下がって、エヌビディアがソフトウェアで大成功する根本的な理由を説明しましょう。まず、ご存知のように、アクセラレーテッド・コンピューティングはクラウドで成長しました。クラウドでは、クラウド・サービス・プロバイダーが実に大規模なエンジニアリング・チームを持っており、私たちは、クラウド・サービス・プロバイダーが自らのビジネスを運営・管理できるような形で、彼らと協力しています。何か問題があればいつでも、大規模なチームが彼らに割り当てられます。そして、彼らのエンジニアリング・チームが私たちのエンジニアリング・チームと直接協力し、アクセラレーション・コンピューティングに関わる複雑なソフトウェア・スタックを強化、修正、メンテナンス、パッチを当てるのです。

ご存知のように、アクセラレーテッド・コンピューティングは汎用コンピューティングとは大きく異なる。C++のようなプログラムから始めるのではない。コンパイルすれば、すべてのCPUで動作する。データ処理のSQL対SQL構造データ対非構造化データであるすべての画像やテキストやPDFから、古典的な機械学習、コンピュータビジョン、音声、大規模言語モデル、すべてのレコメンダーシステムまで、あらゆる領域に必要なソフトウェアのスタックがある。これらはすべて、異なるソフトウェア・スタックを必要とする。エヌビディアが何百ものライブラリを持っているのはそのためです。ソフトウェアがなければ、新しい市場を開拓することはできません。ソフトウェアがなければ、新しいアプリケーションを開発することはできません。

アクセラレーテッド・コンピューティングにはソフトウェアが基本的に必要である。これは、アクセラレーテッド・コンピューティングと汎用コンピューティングの根本的な違いであり、多くの人が理解するのに長い時間を要した。そして今、人々はソフトウェアが本当に重要であることを理解している。我々がCSPと取り組む方法は実に簡単だ。私たちには大規模なチームがあり、彼らの大規模なチームと協力しています。

しかし、ジェネレーティブAIによって、あらゆる企業やあらゆるエンタープライズ・ソフトウェア企業がアクセラレーテッド・コンピューティングを採用できるようになった今、そしてその時、アクセラレーテッド・コンピューティングを採用することが不可欠になっている。これらのエンタープライズ・ソフトウェア企業やエンタープライズ企業はすべて、世界中のクラウドやプライベート・クラウド、オンプレミスで動作するソフトウェア・スタックを維持・最適化できるような大規模なエンジニアリング・チームを持っていない。

だから我々は、彼らのすべてのソフトウェア・スタックの管理、最適化、パッチ適用、チューニング、インストールベースの最適化を行うつもりだ。そして、それらを我々のスタックにコンテナ化します。それをNVIDIA AI Enterpriseと呼んでいます。NVIDIA AI Enterpriseはオペレーティング・システムのようなランタイムであり、人工知能のためのオペレーティング・システムです。

GPU1基あたり年間4,500ドルです。私の推測では、世界中のあらゆる企業、あらゆるクラウドやプライベートクラウド、オンプレミスにソフトウェアを導入しているソフトウェア企業は、エヌビディアのAIエンタープライズ、特に当社のGPUで稼働することになるでしょう。そのため、これは長期的に非常に重要なビジネスになると思われます。素晴らしいスタートを切ることができました。コレットが言ったように、すでに10億ドルのランレートを記録しており、本当に始まったばかりです。

オペレーター

ありがとうございました。それでは、電話をCEOの黄健薰にお返しして、閉会のご挨拶とさせていただきます。

ジェンセン・ファン

コンピューター業界は、同時に2つのプラットフォーム転換を行おうとしている。兆ドル規模のデータセンターは、汎用コンピューティングからアクセラレーテッド・コンピューティングへと移行しつつある。あらゆるデータセンターが高速化され、世界はコストとエネルギーを管理しながら、スループットを向上させ、コンピューティング需要に対応できるようになります。エヌビディアの驚異的な高速化は、人間の言語から生物学や3D世界の構造まで、あらゆる情報をソフトウェアが学習、理解、生成できる、まったく新しいコンピューティング・パラダイム、ジェネレーティブAIを可能にした。

私たちは今、AI専用のデータセンターが膨大な生データを処理してデジタル・インテリジェンスに磨き上げる新しい産業の幕開けを迎えている。前回の産業革命における交流発電所のように、エヌビディアのAIスーパーコンピューターは本質的に、この産業革命におけるAI生成工場なのだ。あらゆる業界のあらゆる企業は、基本的に独自のビジネス・インテリジェンス、そして将来的には独自のジェネレーティブAIによって成り立っている。

ジェネレーティブAIは、AI世代工場の次の1兆ドル規模のインフラを構築するための全く新しい投資サイクルを開始した。私たちは、この2つのトレンドが、今後5年間で世界のデータセンター・インフラの設置台数を倍増させ、年間数千億ドルの市場機会をもたらすと考えています。この新しいAIインフラは、現在では不可能な全く新しいアプリケーションの世界を切り開くだろう。私たちは、ハイパースケール・クラウド・プロバイダーやコンシューマー・インターネット企業とともにAIの旅を始めました。そして今、自動車からヘルスケア、金融サービス、産業、通信、メディア、エンターテインメントに至るまで、あらゆる産業がAIに乗り出している。

NVIDIAのフルスタック・コンピューティング・プラットフォームは、各業界に特化したアプリケーションフレームワークと、巨大な開発者・パートナーエコシステムを備えており、あらゆる企業を支援するためのスピード、スケール、リーチを提供しています。来月サンノゼで開催されるGTCでは、皆さんと分かち合いたいことがたくさんあります。ぜひご参加ください。来期の進捗状況をご報告できることを楽しみにしています。

オペレーター

以上で本日の電話会議を終わります。これでお切りください。

この記事が気に入ったらサポートをしてみませんか?