6 月 2 日、NVIDIA は Computex で、世界中の 2,800 万人の開発者が NVIDIA NIM (Nvidia Inference Microservices) をダウンロードし、AI モデルをクラウド、データセンター、またはワークステーションに展開し、Copilot (AI アシスタント)、Generative AI アプリケーションを簡単に構築できると発表しました。 ChatGPT チャットボットなど。この製品により、モデルの展開時間が数週間からわずか数分に短縮されます。

NVIDIA NIM は、NVIDIA が今年 3 月に開始した最適化されたクラウドネイティブ マイクロサービスで、あらゆる規模の企業による AI サービスの導入を促進することを目的としています。 Securities Times の記者が NVIDIA の公式 Web サイトをチェックしたところ、NVIDIA NIM が公式 Web サイトで公開されており、ユーザーがダウンロードして展開できることを発見しました。

さらに、Nvidia の創設者兼 CEO のジェンスン・フアン氏は、新世代の AI チップとスーパーコンピューティング プラットフォーム Blackwell チップの生産が開始され、Blackwell Ultra AI チップが 2025 年に発売される予定であることも発表しました。次世代 AI プラットフォームは Rubin と名付けられ、現在開発中で、2026 年にリリースされる予定で、このプラットフォームには HBM4 メモリ チップが使用されます。

Blackwell は、Nvidia が大きな期待を寄せている新しいパフォーマンス成長エンジンです。 5月22日に市場予想を大幅に上回る財務報告書を発表した後、黄仁勲氏は決算会見で、ブラックウェルアーキテクチャチップは第2四半期に出荷され、第3四半期には生産が増加すると予想されていると指摘した。今年は多くの製品が会社に収入をもたらします。 #英伟达