ソウルで開催された2025年 SK AIサミットにおいて、SKグループは高帯域幅メモリ(HBM)チップ能力の拡大に対するコミットメントを再確認した。
同コングロマリットの主力半導体部門であるSK hynixは、来年、韓国清州の新しいHBM施設での操業開始計画を発表した。この取り組みは、AIコンピューティングパワー需要の爆発的な増加に直接対応するもので、需要は利用可能な供給を大幅に上回っている。
崔泰源会長はサミットで、同社の戦略が単なる規模から運用効率とインテリジェントな生産へとシフトしていることを強調し、急速なAIインフラ拡大に伴う技術的および経済的課題の両方を管理することを目指している。
崔会長は、より強力なAIチップを提供するための競争が、特にHBMセグメントにおいて、製造のボトルネックと材料不足によってますます制約されていることを強調した。超高帯域幅メモリの需要が急増し続ける一方で、生産はリードタイムの長さと予測不可能な顧客注文によって妨げられている。
これらの問題に対処するため、SK hynixは「スマート効率性」モデルを追求している。これはAI駆動の自動化を通じて設計、生産、物流を最適化するシステム全体のアップグレードである。同社はまた、ワークフローの合理化、エラー率の削減、歩留まりの向上を実現する先進的なデジタル製造プラットフォームを統合するためにNvidiaと協力している。
今後の清州HBM工場は、2027年までに完成予定の大規模なメモリ生産クラスターによって補完される。このネットワークは、韓国の龍仁とアメリカのインディアナの新施設と並行して運営され、SK hynixの最も野心的な拡大計画となる。
このクラスターは、SK hynixが2025年9月に開発を完了した高帯域幅メモリの第4世代であるHBM4の量産をサポートする。量産は2025年第4四半期に予定されており、信頼性を向上させながら欠陥を減らすメモリダイを積層するプロセスである最先端のMR-MUFパッケージング技術を活用する。
SK hynixはすでに世界のHBM市場の推定62%のシェアを持っており、新施設はAIグレードのメモリソリューションにおけるリーダーシップを確固たるものにし、Nvidia、AMD、その他の主要ハイパースケーラーなどの顧客への供給圧力を緩和すると期待されている。
チップを超えて、SKグループのAIへの野心はデータセンターとエネルギー効率にまで及んでいる。グループの別の関連会社であるSK Telecomは、エネルギー最適化された施設を設計するために他のSK企業とパートナーシップを結びながら、AIデータセンター事業を拡大する新計画を発表した。
韓国の新興データインフラ景観には、2025年に着工予定の3ギガワットAIデータセンタープロジェクトが含まれ、BlackRockが支援するハイパースケールハブやインフラ開発におけるOpenAIとの潜在的なパートナーシップも進行中だ。これらのプロジェクトは、液体冷却や浸漬冷却などの先進的な冷却技術と、変動するAIワークロードを処理するためのよりスマートな電力分配システムを重視している。
SK hynixのチップ生産とSK TelecomのAIインフラ戦略の連携は、ハードウェア、データ、持続可能性を一つのイノベーションバナーの下に統合する、グループのAI経済に対する統合的なアプローチを強調している。
記事「SK hynix、急増するAI需要の中で新しいHBMチップ施設を立ち上げへ」は最初にCoinCentralに掲載されました。


