Selon PANews, l'équipe de recherche d'Apple a introduit un modèle de langage ouvert avancé, OpenELM. Ce modèle utilise une stratégie de mise à l'échelle hiérarchique pour distribuer efficacement les paramètres dans chaque couche du modèle de transformateur, améliorant ainsi la précision. Par exemple, avec un budget de paramètres d'environ 1 milliard, la précision d'OpenELM a augmenté de 2,36 % par rapport à OLMo, tandis que les jetons de pré-formation requis ont été réduits de moitié.

Contrairement aux pratiques précédentes qui fournissaient uniquement des pondérations de modèle, du code d'inférence et une pré-formation sur des ensembles de données privés, OpenELM comprend un cadre complet pour la formation et l'évaluation de modèles de langage sur des ensembles de données accessibles au public. Cela inclut les journaux de formation, plusieurs points de contrôle et les configurations de pré-formation. En outre, ils ont également publié le code permettant de convertir le modèle dans la bibliothèque MLX, permettant ainsi une inférence et un réglage précis sur les appareils Apple.

Plus tôt en février, le PDG d'Apple, Tim Cook, a déclaré que la fonctionnalité d'IA générative d'Apple serait lancée « plus tard cette année ». Il y a des rumeurs selon lesquelles la sortie prochaine d'iOS 18 en juin pourrait être la « plus grande » mise à jour de l'histoire d'iOS d'Apple, et le premier appareil iPhone doté d'IA devrait également être lancé en septembre.