Laut PANews hat Apples Forschungsteam ein fortschrittliches offenes Sprachmodell namens OpenELM eingeführt. Dieses Modell verwendet eine hierarchische Skalierungsstrategie, um Parameter in jeder Schicht des Transformatormodells effektiv zu verteilen und so die Genauigkeit zu verbessern. Beispielsweise hat sich die Genauigkeit von OpenELM mit einem Parameterbudget von etwa 1 Milliarde im Vergleich zu OLMo um 2,36 % erhöht, während die erforderlichen Vortrainingstoken um die Hälfte reduziert wurden.

Im Gegensatz zu früheren Vorgehensweisen, die nur Modellgewichte, Inferenzcode und Vortraining auf privaten Datensätzen bereitstellten, enthält OpenELM ein vollständiges Framework zum Trainieren und Auswerten von Sprachmodellen auf öffentlich verfügbaren Datensätzen. Dazu gehören Trainingsprotokolle, mehrere Prüfpunkte und Vortrainingskonfigurationen. Darüber hinaus haben sie auch den Code zur Konvertierung des Modells in die MLX-Bibliothek veröffentlicht, was Inferenz und Feinabstimmung auf Apple-Geräten ermöglicht.

Anfang Februar erklärte Apple-CEO Tim Cook, dass Apples generative KI-Funktion „später in diesem Jahr“ eingeführt werden würde. Es gibt Gerüchte, dass die bevorstehende Veröffentlichung von iOS 18 im Juni das „größte“ Update in der Geschichte von Apples iOS sein könnte, und das erste KI-iPhone-Gerät soll ebenfalls im September auf den Markt kommen.