見出し画像

NVIDIAとGoogleの協力によるGemma言語モデルの最適化


NVIDIAはGoogleと協力し、Gemmaという新しい軽量オープン言語モデルをNVIDIA AIプラットフォームで最適化しました。このモデルは、2億および70億のパラメーターを持ち、どこでも実行可能で、コスト削減と特定の用途への革新的な応用が可能です。

### Gemmaの構築背景と技術

Gemmaは、Geminiモデルの研究と技術を基に構築されました。NVIDIAのTensorRT-LLMというオープンソースライブラリを使用し、NVIDIA GPUでの大規模言語モデルの推論を最適化します。これにより、データセンター、クラウド、NVIDIA RTX GPUを搭載したPCでのパフォーマンスが向上します。

### Gemmaの利用可能性と展開

開発者は、世界中で1億台以上のNVIDIA RTX GPUを搭載した高性能AI PCでGemmaを使用するアプリケーションを開発できます。Google CloudのA3インスタンスや、今年導入されるH200 Tensor Core GPUを含むクラウド上のNVIDIA GPUでの実行も可能です。

### 企業開発者向けのNVIDIAツールエコシステム

企業の開発者は、NVIDIA AI EnterpriseのNeMoフレームワークやTensorRT-LLMを含むNVIDIAの豊富なツールエコシステムを活用して、Gemmaを微調整し、最適化されたモデルを自社の製品アプリケーションに展開できます。

### Chat with RTXによるGemmaのサポート

Chat with RTXというNVIDIAの技術デモでは、Gemmaのサポートが間もなく追加されます。これにより、ローカルのRTX搭載Windows PCで生成AI機能をユーザーに提供することができます。

---
元ネタ↓ エヌビディアホームページより
https://blogs.nvidia.com/blog/google-gemma-llm-rtx-ai-pc/

この記事が気に入ったらサポートをしてみませんか?