テッド・ヒソカワ 2024年11月18日 19:20
NVIDIAのH200 NVL GPUは、低消費電力の空冷ラック設計を持つエンタープライズサーバーに適したAIおよびHPCアプリケーション向けに強化されたパフォーマンスを提供し、効率性と構成可能性を向上させます。
NVIDIAは、エンタープライズサーバー向けのAIと高性能コンピューティング(HPC)アプリケーションを改善することを目的とした、Hopperアーキテクチャの新しい追加であるH200 NVL PCIe GPUを発表しました。2024年のスーパーコンピューティングカンファレンスで公開されたH200 NVLは、柔軟な構成が可能なデータセンターに最適な、低消費電力の空冷設計を提供します。
H200 NVL GPUの利点
H200 NVL GPUは、主に空冷を使用する20kW以下のエンタープライズラックのニーズに対応するように設計されています。これは、ノード展開の粒度を提供するための重要なコンポーネントであり、組織が計算能力を効率的に最適化できるようにします。GPUは、前のモデルであるNVIDIA H100 NVLに対して、メモリを1.5倍、帯域幅を1.2倍増加させ、AIモデルの微調整と推論性能を向上させます。
技術的な向上
H200 NVLのハードウェア機能を補完するのは、NVIDIAのNVLink技術であり、これはGPU間の通信速度を第5世代PCIeの7倍に向上させます。この進歩は、大規模な言語モデルの推論や微調整など、需要の高いタスクに特に有益です。
業界の採用と使用例
さまざまな分野の企業がすでにH200 NVLを多様なアプリケーションに活用しています。DropboxはNVIDIAの加速コンピューティングを使用してAIと機械学習の能力を強化し、ニューメキシコ大学はゲノミクスや気候モデリングなどの研究分野でこれを適用しています。これらの使用例は、AIとHPCワークロードにおける効率性と革新を推進するGPUの可能性を強調しています。
可用性とエコシステムサポート
Dell Technologies、Hewlett Packard Enterprise、Lenovo、Supermicroなどの主要テクノロジー企業は、さまざまな構成でH200 NVLをサポートする予定です。NVIDIAのグローバルシステムパートナーは、12月にH200 NVLを搭載したプラットフォームの提供を開始します。さらに、NVIDIAは、パートナーや顧客が大規模な高性能AIインフラストラクチャを展開するのを支援するためのエンタープライズリファレンスアーキテクチャを開発しています。
詳細については、こちらの公式NVIDIAブログをご覧ください。
画像提供元: Shutterstock
ソースリンク
<p>NVIDIAのH200 NVL GPUは、エンタープライズサーバーにおけるAIとHPCアプリケーションを強化するという投稿が最初にCoinBuzzFeedに登場しました。 </p>