I en vitbok beskrivs åtta Open ELM-modeller, fyra är förtränade med Corenet-biblioteket och fyra är finjusterade med instruktioner. Apple använder en strategi där de skalar lager för att öka både noggrannhet och effektivitet, detta skriver sajten Macrumors.
Apple delar inte bara den slutgiltiga tränade modellen utan också kod och träningsloggar. Forskarna bakom projektet hoppas att det här kommer leda till snabbare framsteg och mer pålitliga resultat inom AI för naturligt språk.
”Till skillnad från tidigare när vi bara delat modellvikter och kod för inferens, samt tränade på privata datamängder, inkluderar vår release ett komplett ramverk för att träna och utvärdera språkmodellen med offentligt tillgängliga datamängder, träningsloggar, flera checkpoints och förträningskonfigurationer” skriver utvecklarna på sajten Hugging Face Hub.
Apple säger att de släpper OpenELM-modellerna för att “stärka och berika den öppna forskningsgemenskapen”. Att dela öppen källkod ger forskare möjlighet att undersöka risker samt undersöka data- och modellbias. Utvecklare och företag kan använda modellerna som de är eller göra ändringar.