Darius Baruo
2025/12/2 19:09
NVIDIAが新しいAIモデルラインであるMistral 3を発表し、比類のない精度と効率性を提供。NVIDIA GPUに最適化されたこれらのモデルは、業界全体でのAI展開を強化します。
NVIDIAは最新のAIモデルファミリーであるMistral 3を発表し、開発者と企業に前例のない精度と効率性を約束しています。NVIDIAの開発者ブログによると、これらのモデルはハイエンドデータセンターからエッジプラットフォームまで、NVIDIA GPU全体での展開に最適化されています。
Mistral 3モデルファミリー
Mistral 3ファミリーには、様々なアプリケーション向けに調整された多様なモデルが含まれています。6750億パラメータを持つ大規模なスパースマルチモーダルおよび多言語モデルと、3B、8B、14Bのパラメータサイズで利用可能なMinistral 3と呼ばれる小型の高密度モデルが特徴です。各モデルサイズには、Base、Instruct、Reasoningの3つのバリアントがあり、合計9つのモデルが提供されています。
これらのモデルはNVIDIA Hopper GPUで訓練され、Hugging FaceのMistral AIを通じてアクセス可能です。開発者は異なるモデル精度フォーマットとオープンソースフレームワークを使用してこれらのモデルを展開でき、様々なNVIDIA GPUとの互換性を確保しています。
パフォーマンスと最適化
NVIDIAのMistral Large 3モデルは、GB200 NVL72プラットフォームで顕著なパフォーマンスを達成し、大規模な専門家の混合(MoE)モデル向けに調整された一連の最適化を活用しています。前世代と比較して最大10倍のパフォーマンス向上により、Mistral Large 3モデルはユーザーエクスペリエンス、コスト効率、エネルギー使用量において大幅な向上を示しています。
このパフォーマンス向上は、NVIDIAのTensorRT-LLM Wide Expert Parallelism、NVFP4を使用した低精度推論、長文脈ワークロードのパフォーマンスを向上させるNVIDIA Dynamoフレームワークによるものです。
エッジ展開と多様性
エッジ展開向けに設計されたMinistral 3モデルは、様々なアプリケーションに柔軟性とパフォーマンスを提供します。これらのモデルはNVIDIA GeForce RTX AI PC、DGX Spark、Jetsonプラットフォーム向けに最適化されています。ローカル開発はNVIDIAの高速化の恩恵を受け、高速な推論速度と改善されたデータプライバシーを提供します。
特にJetson開発者は、vLLMコンテナを利用して効率的なトークン処理を実現でき、これらのモデルはエッジコンピューティング環境に理想的です。
今後の開発とオープンソースコミュニティ
今後、NVIDIAは投機的デコーディングなどの今後のパフォーマンス最適化でMistral 3モデルをさらに強化する計画です。さらに、vLLMやSGLangなどのオープンソースコミュニティとのNVIDIAのコラボレーションは、カーネル統合と並列処理サポートの拡大を目指しています。
これらの開発により、NVIDIAはオープンソースAIコミュニティを継続的にサポートし、開発者がAIソリューションを効率的に構築・展開するための堅牢なプラットフォームを提供しています。Mistral 3モデルはHugging Faceでダウンロードするか、NVIDIAのビルドプラットフォームで直接テストすることができます。
画像ソース:Shutterstock
ソース: https://blockchain.news/news/nvidia-mistral-3-models-boost-ai-efficiency








