Nvidia, ein multinationaler Konzern und Technologieunternehmen, hat die Veröffentlichung eines neuen Dienstes angekündigt, der Unternehmen und Ländern dabei hilft, mit Metas neuestem LLM, Llama 3.1, maßgeschneiderte und spezialisierte Supercomputer zu bauen.

Nvidia hat zwei neue Dienste veröffentlicht, die sich an Unternehmen und Länder richten. Der Technologieriese hat einen Dienst innerhalb von Nvidia AI Foundry und Inferenz-Mikrodienste innerhalb von NVIDIA NIM veröffentlicht. Beide Dienste nutzen Metas neueste Open-Source-LLM-Bibliothek, Llama 3.1, und können generative KI-Supercomputer erstellen.

Nvidia AI Foundry wird Unternehmen und Ländern dabei helfen, Super-LLM-Modelle zu erstellen, die auf die spezifischen Anforderungen und Bedürfnisse der Branche zugeschnitten sind. Dies ist durch den Einsatz von Llama 3.1 und der Software, Hardware und dem Talent von Nvidia möglich. Unternehmen und Länder haben die Möglichkeit, diese Supermodelle mit proprietären Daten oder synthetischen Daten zu trainieren, die aus Llama 3.1 und dem Belohnungsmodell Nvidia Nemotron generiert werden.

Lesen Sie auch: Tesla will ab 2025 humanoide Bots einsetzen, sagt Elon Musk

Llama 3.1, das heute veröffentlicht wurde, verfügt über 405 Milliarden Parameter und ist in der Lage, mit Closed-Source-KI-Modellen wie ChatGPT und Gemini zu konkurrieren. Meta verbessert Llama kontinuierlich, indem es zusätzliche Komponenten bereitstellt, die mit dem Modell funktionieren. Meta und Nvidia haben sich zusammengetan, um Llama 3.1 in die Dienste von Nvidia zu integrieren, sodass die Lösung vom ersten Tag an verfügbar ist. Der CEO von Nvidia, Jensen Huang, sagte:

„…NVIDIA AI Foundry hat Llama 3.1 vollständig integriert und ist bereit, Unternehmen beim Erstellen und Bereitstellen benutzerdefinierter Llama-Supermodelle zu unterstützen.“

Die generativen KI-Modelle von Llama 3.1 werden auf mehr als 16.000 Nvidia H100 Tensor Core GPUs trainiert. Darüber hinaus sind sie für Nvidias beschleunigtes Computing und Software optimiert, was den Einsatz in Rechenzentren, Clouds und auf GPU-betriebenen PCs ermöglicht.

Lesen Sie auch: Meta enthüllt größte Version des Llama 3-KI-Modells

Derzeit haben viele Unternehmen weltweit Zugriff auf NIM-Mikroservices für Llama. Accenture ist der erste Kunde, der benutzerdefinierte Llama-Supermodelle für Aramco, AT&T und Uber erstellt. Diese Unternehmen werden die ersten sein, die mit Llama 3.1 auf NIM-Mikroservices zugreifen. Nach der erfolgreichen Erstellung benutzerdefinierter Modelle kann ein Unternehmen zum Ausführen der Modelle zwischen den Mikroservices von Nvidia, einer OPs-Plattform und einer Cloud-Plattform wählen.

Letzte Woche hat Mistral AI in Zusammenarbeit mit Nvidia ein neues 12B-Modell namens Mistral NeMo herausgebracht. Das Modell ist als Nvidia NIM-Inferenz-Microservice verfügbar. In Bezug auf neue GPU-Hardware behauptete ein Leaker, dass das Hardwaretechnologieunternehmen eine neue Generation RTX 5090D nur für den chinesischen Markt herausbringen wird. Die neue GPU wird der Nachfolger der RTX 4090D sein.