Nvidiaは、ハイエンドAIソリューションに向けたグローバルな競争において、また大きな一歩を踏み出しました。同社は、新しいRubinデータセンターチップが今年後半の発売に向けてほぼ準備が整っており、顧客は間もなくテストを開始すると発表しています。
Nvidiaは、6つすべてのRubinチップが製造パートナーから戻ってきたと述べています。これらのチップはすでにいくつかの重要なテスト手順を経ており、顧客による使用に向けて予定通り進んでいます。同社は、AI企業やデータセンターがより高速で効率的なハードウェアを手に入れるために競争しているため、この早期の進展が重要であると指摘しています。
NvidiaのCEOであるジェンスン・フアン氏は、ラスベガスで開催されたコンシューマー・エレクトロニクス・ショー(CES)での基調講演でこの最新情報を共有しました。CESは世界最大規模のテクノロジー集会の一つであり、メーカーが新製品やアイデアを発表する場です。「AIの競争が始まっています」とフアン氏は、次世代AIの実現に向けてテクノロジー企業間で急速に進展する競争の中で述べました。
彼のコメントは、NvidiaがAIアクセラレーターの世界ナンバーワンメーカーであり続けることができると確信していることを示しています。これらのアクセラレーターは、データセンターがAIモデルのトレーニングと実行に使用する特殊なチップであり、チャットボット、画像認識システム、高度なロボットなどのツールを動かします。
RubinはNvidiaの最新AIアクセラレーターで、前世代のBlackwellに続くものです。同社は、RubinがBlackwellと比較してAIモデルのトレーニングが3.5倍速く、AIソフトウェアの実行が5倍速いと述べています。AIのトレーニングとは、膨大な量のデータからモデルに学習させることを指し、AIの実行とは、それらのモデルを使用してリアルタイムでタスクを実行することを意味します。
Rubinには、88コアを備えた新しい中央処理装置(CPU)が追加されています。コアとは、計算を実行しデータを処理するチップの部分です。置き換えられるチップの2倍の性能を持つこの新しいCPUは、より複雑なAIワークロードに適しています。Nvidiaは、カリフォルニアで開催される春のGTCカンファレンスで、通常は製品の詳細をすべて共有します。
今回は、通常よりも多くの情報が売り切れました。この動きは、AI採用が急速に成長し続ける中、消費者と開発者をNvidiaのハードウェアに集中させるための手段と考えられています。フアン氏自身も、AI製品、パートナーシップ、投資を宣伝する多くの公の場に登場しています。CESで注目を集めたのはNvidiaだけではありませんでした。競合チップメーカーのAdvanced Micro Devices(AMD)のCEOであるリサ・スー氏も基調講演を予約しており、チップ市場における競争の激化を浮き彫りにしました。
一部の投資家は、Nvidiaの競争が激化していることを懸念しています。他のテクノロジー企業も独自のAIチップを開発しており、AIへの支出がペースを保てるかどうかを判断するのは困難です。
しかし、Nvidiaは楽観的であり、クラウドコンピューティング、ビジネス、新興セクターなどの業界からの需要に 駆動 され、長期的なAI市場は数兆ドルの価値がある可能性があると考えています。
Rubinハードウェアは、大規模なAI作業向けに設計された強力なスーパーコンピューターであるNvidiaのDGX SuperPodで使用されます。同時に、顧客はRubinチップを個別のコンポーネントとして購入でき、より柔軟でモジュール式のシステムを構築できます。
AIシステムが進化し続けていることを考えると、性能の向上は特に重要です。現代のAIは、膨大な量のデータを処理するだけでなく、複数のステップで問題を解決する専門モデルのネットワークにますます依存しています。このようなタスクには、計画、推論、意思決定が含まれます。
Nvidiaはまた、Rubinベースのシステムは、Blackwellシステムよりも運用コストが安くなると強調しました。Rubinは、より少ないコンポーネントで同じ結果を提供できるため、データセンターはエネルギーと運用コストを節約できます。
Microsoft、Google Cloud、Amazon Web Services(AWS)などの主要なクラウドコンピューティング企業は、今年後半にRubinハードウェアを最初に展開する企業の一つになると予想されています。これらの企業は現在、Nvidia 駆動 のAIシステムへの支出の大部分を占めています。
メンターシップと毎日のアイデアで戦略を磨く - 30日間無料で取引プログラムにアクセス