Platforma Blackwell a NVIDIA, lansată la GTC 2024, a dublat performanța benchmark-urilor de formare a modelului de limbă mare (LLM) în MLPerf Training v4.1, prezentând câștiguri semnificative față de arhitecturile anterioare. Platforma, acum în plină producție, include șapte tipuri de cipuri, inclusiv GPU, CPU și DPU și este concepută pentru a sprijini dezvoltarea LLM-urilor de generație următoare.

În benchmark-urile MLPerf Training, platforma Blackwell a depășit-o pe predecesorul său, Hopper, la toate testele, cu o creștere de două ori a performanței pentru GPT-3 pre-antrenament și o creștere de 2,2 ori pentru reglarea fină a Llama 2 70B Low-Rang Adapting (LoRA). . Compania intenționează să folosească sistemul GB200 NVL72 pentru îmbunătățiri suplimentare de performanță.

Progresele platformei Blackwell reprezintă un salt semnificativ în capabilitățile AI, deschizând calea pentru sisteme AI mai complexe și mai capabile.

Sursă

<p>Postarea Platforma Blackwell de la NVIDIA dublează performanța de formare a modelelor de limbaj mari a apărut pentru prima dată pe CoinBuzzFeed.</p>