NVIDIA AI Foundry が世界中の企業向けにカスタム Llama 3.1 生成 AI モデルを構築
2024/7/26
Contents
■主要なポイント
- NVIDIA AI Foundryは、キュレーション、合成データ生成、ファインチューニング、検索、ガードレール、評価にわたる包括的な生成AIモデルサービスを提供し、カスタムLlama 3.1 NVIDIA NIMマイクロサービスを展開し、新しいNVIDIA NeMo Retrieverマイクロサービスを使用して正確な応答を実現する。
- Accentureは新しいサービスを使用してクライアント向けにカスタムLlama 3.1モデルを構築する最初の企業であり、Aramco、AT&T、Uber、その他の業界リーダーが新しいLlama NVIDIA NIMマイクロサービスへ初めてアクセスする。
NVIDIA AI Foundryにより、企業や国家は、Llama 3.1とNVIDIAのソフトウェア、コンピューティング、専門知識を使用して、ドメイン固有の業界ユースケース向けのカスタム「スーパーモデル」を作成できるようになる。企業は、独自のデータだけでなく、Llama 3.1 405BやNVIDIA Nemotron™ Rewardモデルから生成された合成データを使用して、これらのスーパーモデルをトレーニングすることができる。
NVIDIA AI Foundryは、世界をリードするパブリッククラウドと共同で開発されたNVIDIA DGX™ Cloud AIプラットフォームを活用しており、AIの需要の変化に応じて簡単に拡張できる重要なコンピューティングリソースを企業に提供する。この新たなサービスの提供は、企業やソブリンAI戦略を策定している国家が、独自のビジネスや文化を反映する生成AIアプリケーション向けに、ドメイン固有の知識を備えたカスタムの大規模言語モデルを構築するニーズに応える。
NVIDIAの創業者/CEOであるジェンスン フアンは次のように述べている。「Metaのオープンに利用可能なLlama 3.1モデルは、世界中の企業における生成AIの導入にとって極めて重要な瞬間となる。Llama 3.1は、あらゆる企業や業界が最先端の生成AIアプリケーションを構築するための扉を開く。NVIDIA AI FoundryはLlama 3.1を全面的に統合しており、企業がカスタムLlamaスーパーモデルを構築し、展開するのを支援する準備ができている」
Metaの創業者/CEOであるMark Zuckerberg氏は次のように述べている。「新しいLlama 3.1モデルは、オープンソースAIにとって非常に重要なステップだ。NVIDIA AI Foundryを使用すると、企業は人々が望む最先端のAIサービスを簡単に作成およびカスタマイズし、NVIDIA NIMで展開できる。これを皆さんの手に届けられることを嬉しく思う」
プロダクションAI向けのLlama 3.1モデルの企業展開を強化するために、Llama 3.1モデル用のNVIDIA NIM™推論マイクロサービスがai.nvidia.comからダウンロードできるようになった。NIMマイクロサービスは、本番環境にLlama 3.1モデルを展開する最も速い方法であり、NIMなしで推論を実行する場合よりも最大2.5倍のスループットを実現する。
企業は、Llama 3.1 NIMマイクロサービスを新しいNVIDIA NeMo Retriever NIMマイクロサービスと組み合わせて、AIコパイロット、アシスタント、デジタル ヒューマン アバター向けの最先端の検索パイプラインを作成できる。
■Accenture が AI Foundry で企業向けカスタム Llama スーパーモデルを開発
Accentureの会長兼最高経営責任者(CEO)であるJulie Sweet氏は次のように述べている。「世界の一流企業は、生成AIがあらゆる業界を変革していることを理解しており、カスタムモデルで動作するアプリケーションの展開を熱望している。Accentureは、社内AIアプリケーション向けにNVIDIA NIM推論マイクロサービスと連携してきたが、NVIDIA AI Foundryを使用することで、顧客がカスタムLlama 3.1モデルを迅速に作成して展開し、各自のビジネス優先事項に合わせて革新的なAIアプリケーションを強化できるよう支援する」
NVIDIA AI Foundryは、カスタムスーパーモデルを迅速に構築するためのエンドツーエンドのサービスを提供する。NVIDIA AI Foundryは、NVIDIAのソフトウェア、インフラ、専門知識を、NVIDIA AIエコシステムのオープンコミュニティモデル、テクノロジおよびサポートを組み合わせたものである。
NVIDIA AI Foundryを使用すると、企業はLlama 3.1モデルとNVIDIA NeMoプラットフォームを使用してカスタムモデルを作成できる。これには、Hugging Face RewardBenchで1位にランクされたNVIDIA Nemotron-4 340B Rewardモデルが含まれる。
カスタムモデルが作成されると、企業はNVIDIA NIM推論マイクロサービスを作成し、好みのクラウドプラットフォームとグローバルサーバーメーカーのNVIDIA-Certified Systemsで好みのMLOpsおよびAIOpsプラットフォームを使用して本番環境で実行することができる。
NVIDIA AI Enterpriseの専門家とグローバルシステムインテグレーターパートナーは、AI Foundryの顧客と協力して、開発から展開までのプロセス全体を加速する。
■NVIDIA Nemotron が高度なモデル カスタマイズを強化
NVIDIAとMetaは、Llama 3.1の蒸留レシピの提供でも協力しており、開発者はこれを使用して、生成AIアプリケーション用のより小規模なカスタムLlama 3.1モデルを構築できる。これにより、企業はAIワークステーションやノート PCなどのより広範なアクセラレーテッドインフラでLlama搭載のAIアプリケーションを実行可能になる。
■業界をリードする企業が NVIDIA と Llama で AI を強化
16,000基を超えるNVIDIA H100 TensorコアGPUでトレーニングされ、データセンター、クラウド、およびNVIDIA RTX GPUを搭載したワークステーションやGeForce RTX™ GPUを搭載したPC上のローカルでNVIDIAアクセラレーテッドコンピューティングとソフトウェア向けに最適化されたLlama 3.1多言語LLMコレクションは、8B、70B、および405Bのパラメータサイズの生成AIモデルのコレクションである。
■新しい NeMo Retriever RAG マイクロサービスが精度とパフォーマンスを向上
Llama 3.1 405B向けNVIDIA NIM推論マイクロサービスと組み合わせることで、NeMo Retriever NIMマイクロサービスは、RAGパイプラインで最高のオープンおよび商用テキストQ&A検索精度を実現する。
■Llama 3.1 および NeMo Retriever NIM の展開をサポートするエンタープライズ エコシステム
Llama 3.1 NIMおよびNeMo Retriever NIMマイクロサービスのプロダクションサポートは、NVIDIA AI Enterpriseを通じて利用可能である。NVIDIA Developer Programのメンバーは、まもなくNIMマイクロサービスに無料でアクセスして、好みのインフラ上で研究、開発、テストを行うことができる。