TLDR :

  • Meta’s Llama est une famille de modèles d’IA génératifs ouverts avec des versions 8B, 70B et 405B

  • Les modèles Llama 3.1 disposent de fenêtres contextuelles de 128 000 jetons et peuvent effectuer diverses tâches textuelles

  • Meta propose des outils comme Llama Guard et Prompt Guard pour rendre Llama plus sûr à utiliser

  • Llama est disponible sur les principales plateformes cloud et alimente les chatbots IA de Meta

  • Il existe des inquiétudes concernant d'éventuels problèmes de droits d'auteur liés aux données d'entraînement de Llama

Meta, le géant de la technologie anciennement connu sous le nom de Facebook, a fait des progrès significatifs dans le domaine de l'intelligence artificielle avec sa dernière itération de la famille de modèles Llama. Llama 3.1, sorti en juillet 2024, représente une avancée majeure dans l'IA open source, offrant aux développeurs et aux entreprises un outil puissant pour une large gamme d'applications.

Llama 3.1 est disponible en trois tailles : 8B, 70B et 405B, en référence au nombre de paramètres de chaque modèle. Les versions 8B et 70B sont conçues pour des applications plus compactes, capables de fonctionner sur des appareils allant des ordinateurs portables aux serveurs. Le modèle 405B, cependant, est une version à grande échelle qui nécessite généralement du matériel de centre de données pour des performances optimales.

L'une des caractéristiques les plus remarquables de tous les modèles Llama 3.1 est leur impressionnante fenêtre contextuelle de 128 000 jetons, soit environ 100 000 mots ou 300 pages de texte. Ce contexte étendu permet aux modèles de maintenir la cohérence et la pertinence sur de plus longues périodes d'entrée, réduisant ainsi potentiellement les erreurs et améliorant la qualité globale de sortie.

Les capacités de Llama 3.1 couvrent un large éventail de tâches textuelles. Il s'agit notamment de coder, de répondre à des questions mathématiques de base et de résumer des documents dans huit langues différentes. Le modèle peut analyser différents types de fichiers, notamment des PDF et des feuilles de calcul. Bien que Llama 3.1 ne traite ni ne génère actuellement d'images, il peut être configuré pour exploiter des applications, des outils et des API tiers pour effectuer des tâches.

Meta a rendu Llama 3.1 disponible sur les principales plateformes cloud, en partenariat avec plus de 25 fournisseurs, dont AWS, Google Cloud et Microsoft Azure. Cette disponibilité généralisée vise à offrir aux développeurs un choix et une flexibilité dans la manière dont ils mettent en œuvre et utilisent le modèle.

Pour répondre aux préoccupations en matière de sécurité, Meta a introduit plusieurs outils parallèlement à Llama 3.1. Llama Guard sert de cadre de modération pour détecter les contenus potentiellement problématiques, tandis que Prompt Guard vise à protéger contre les attaques par injection rapide. De plus, CyberSecEval fournit une suite pour l'évaluation des risques de cybersécurité.

Le caractère ouvert de Llama 3.1 le distingue des autres grands modèles d’IA comme GPT-4 d’OpenAI et Gemini de Google, qui ne sont accessibles que via des API. Cependant, cette ouverture s’accompagne également de certaines restrictions. Les développeurs d’applications comptant plus de 700 millions d’utilisateurs mensuels doivent demander une licence spéciale à Meta pour utiliser Llama 3.1.

Malgré ses avancées, Llama 3.1 n’est pas sans poser de problèmes potentiels. L’utilisation de matériel protégé par le droit d’auteur dans les données de formation suscite des inquiétudes, ce qui pourrait entraîner des complications juridiques pour les utilisateurs. Meta a fait l’objet d’un examen minutieux et de contestations judiciaires concernant ses pratiques de formation de l’IA, notamment un procès impliquant plusieurs auteurs pour utilisation présumée non autorisée de données protégées par le droit d’auteur.

La sortie de Llama 3.1 coïncide avec des avancées plus larges dans le domaine des grands modèles de langage. D’autres entreprises, comme Microsoft avec son modèle Orca 2, repoussent également les limites des capacités de l’IA. Ces développements entraînent le besoin d’applications plus spécialisées des modèles d’IA.

Pour répondre à cette demande, le réglage fin est devenu un processus essentiel. AWS, filiale d’Amazon, propose désormais des outils via Amazon SageMaker JumpStart pour aider les développeurs à affiner les modèles Llama 3 pour des tâches spécifiques à un domaine. Ce processus peut améliorer considérablement les performances du modèle dans les applications ciblées.

L'article Meta publie Llama 3.1 : un aperçu complet du modèle d'IA open source est apparu en premier sur Blockonomi.