Rongchai Wang
2025年8月22日 05:13
NVIDIAのNVLinkとNVLink Fusion技術は、AIモデルの複雑さの指数関数的な成長に対応するため、強化されたスケーラビリティと柔軟性によりAI推論パフォーマンスを再定義しています。
人工知能(AI)モデルの複雑さの急速な進歩により、パラメータ数は数百万から数兆へと大幅に増加し、前例のない計算リソースが必要となっています。Joe DeLaereが最近のNVIDIAブログ投稿で強調したように、この進化はGPUクラスターによる負荷管理を必要としています。
NVLinkの進化と影響
NVIDIAは2016年にNVLinkを導入し、高性能コンピューティングとAIワークロードにおけるPCIeの制限を超え、より高速なGPU間通信と統一メモリ空間を実現しました。NVLink技術は大きく進化し、2018年にはNVLink Switchの導入により8-GPUトポロジーで300 GB/sのオールツーオール帯域幅を達成し、スケールアップコンピュートファブリックへの道を開きました。
2024年にリリースされた第5世代NVLinkは、1,800 GB/sのオールツーオール通信で72個のGPUをサポートし、第1世代の800倍となる総帯域幅130 TB/sを提供します。この継続的な進歩は、AIモデルの複雑さとその計算需要の増大に対応しています。
NVLink Fusion:カスタマイズと柔軟性
NVLink Fusionは、ハイパースケーラーにNVLinkのスケールアップ技術へのアクセスを提供し、NVIDIAのアーキテクチャとカスタムシリコンの統合を可能にし、セミカスタムAIインフラストラクチャの展開を実現するように設計されています。この技術はNVLink SERDES、チップレット、スイッチ、ラックスケールアーキテクチャを包含し、統合の柔軟性のためのモジュラー型Open Compute Project(OCP)MGXラックソリューションを提供します。
NVLink FusionはUniversal Chiplet Interconnect Express(UCIe)IPとインターフェースを使用したカスタムCPUとXPU構成をサポートし、プラットフォーム全体でXPU統合ニーズに対する柔軟性を顧客に提供します。カスタムCPUセットアップでは、最適なGPU接続性とパフォーマンスのためにNVIDIA NVLink-C2C IPの統合が推奨されています。
AIファクトリーの収益最大化
NVLinkスケールアップファブリックは、ワットあたりのスループットと遅延のバランスを最適化することで、AIファクトリーの生産性を大幅に向上させます。NVIDIAの72-GPUラックアーキテクチャは、AI計算ニーズを満たす上で重要な役割を果たし、様々なユースケースで最適な推論パフォーマンスを実現します。この技術のスケールアップ構成能力は、NVLinkの速度が一定であっても、収益とパフォーマンスを最大化します。
堅牢なパートナーエコシステム
NVLink Fusionは、カスタムシリコン、CPU、IP技術のパートナーを含む広範なシリコンエコシステムの恩恵を受け、幅広いサポートと迅速な設計組み込み能力を確保しています。システムパートナーネットワークとデータセンターインフラストラクチャコンポーネントプロバイダーは、すでにNVIDIA GB200 NVL72およびGB300 NVL72システムを構築しており、採用者の市場投入時間を短縮しています。
AI推論の進歩
NVLinkは、AI推論の時代における計算需要に対応する重要な飛躍を表しています。NVLink技術の10年にわたる専門知識とOCP MGXラックアーキテクチャのオープン標準を活用することで、NVLink Fusionはハイパースケーラーに優れたパフォーマンスとカスタマイズオプションを提供します。
画像出典:Shutterstock
出典: https://blockchain.news/news/nvidia-nvlink-fusion-ai-inference-performance







