Armは月曜日、AIデータセンター向けのNeoverseチップにNvidiaのNVLinkを組み込み始めると発表しました。これは、大規模なAIワークロードを処理するレースで誰が誰とチームを組んでいるかを示す動きです。
同社によると、この計画はNvidiaの高速リンクをハイパースケーラーが使用するArmベースのサーバーチップに直接組み込むものです。この更新は両社から発表され、AIシステムがより大規模かつ運用コストが高くなる中で、なぜこの変化が重要なのかが説明されました。
同社は、この新たな取り組みがRene Haas CEOの、従来の単純なCPU設計図ではなく、顧客に完全なチップ設計を提供するという方針に合致していると述べています。
Armによれば、この変更は収益を増やし、同社が長年携わってきたスマートフォン市場から脱却するためのものだとしています。
Nvidiaは、NVLinkがすでに同社のAIシステムの中核ツールであると述べており、このリンクにより多数のアクセラレーターが高速にデータを移動し、ワークロードを分散させ、1つのチップでは処理できない重いモデルを扱うことができるとしています。
またNvidiaは、NVLinkがAIソフトウェアを実行するアクセラレーター間の主要な橋渡しとして機能すると述べています。
Armによると、NeoverseプラットフォームはAWSやMicrosoftなど、すでにデータセンターでArmベースのチップを使用している顧客向けに、NVLinkを組み込みオプションとして提供するようになります。Nvidiaは、Fusionと呼ばれる新バージョンの技術を公開し、他のハードウェアメーカーがNvidia以外のチップをNvidiaシステムに接続できるようにしたと述べています。
Nvidiaによれば、この変更は企業が大規模なAIクラスター内でチップを混在させることを容易にするためのものです。同社は、このインターフェースによりサーバーが高速リンクを介して重いAIタスクを速度低下なく実行できるようになると述べています。
Nvidiaは9月、IntelとNVLinkを一部のサーバー製品に追加する契約を結んだと発表しました。これは両社の長年のライバル関係の後に実現したもので、Nvidiaはこの合意によりNVLinkがNvidia専用システムを超えて機能できることを示していると述べています。
Armは、かつて市場の99%を占めていたIntelのXeonからサーバーシェアを奪っていると述べています。Nvidiaは、すでに一部のプロセッサ内でArm CPUを自社のアクセラレーターと組み合わせて使用しており、規制当局によってブロックされた取引でArmの買収も試みたと述べています。Nvidiaによれば、Armとのより緊密なパートナーシップにより、NVLinkがAIデータセンターの標準オプションになる可能性があるとしています。
Armは、最大規模のサーバーフリートを持つ企業であるハイパースケーラーに、より多くのNeoverseユニットを販売しようとしていると述べています。同社はNeoverseが市場の50%に達すると予想しています。Nvidiaは水曜日にサンタクララで四半期決算を発表する予定で、投資家はAI支出がまだ増加しているのか、それとも減速しているのかを確認することになります。
最も賢い暗号資産の専門家たちはすでに私たちのニュースレターを読んでいます。参加しませんか?彼らに加わりましょう。

