Ahogy azt az xAI bejelentése kiemeli, a Grok-1 egy 314 milliárd paraméterből álló, úgynevezett Mixture-of-Experts modell, melynek lényege nagyon röviden az, hogy több, a bemenet különböző részeire kihegyezett neurális háló együtteséből áll össze, és attól függően aktivál egyet, vagy néhányat ezek közül, hogy pontosan mit kérünk tőle. Az xAI azt írta, hogy a modellt egy saját adatbázison, a nulláról tanították be, de erről nem derült ki ennél több infó - írja a Telex.
A közzétett modell jelenlegi formájában nem alkalmas például arra, hogy chatbotként használják. Ha valakit érdekel, ide kattintva tudja letölteni. A nagy nyelvi modellek szabadon hozzáférhetővé tétele alapvetően nem újdonság, többek közt a Meta által kiadott Llama 2 is nyílt forráskódú, igaz, az elődjével ellentétben a cég itt már nem osztott meg semmit a tanításhoz használt adatokból.
Az ugyanakkor, hogy Elon Musk MI-cége is így tett, vélhetően inkább annak köszönhető, hogy a már a Twitternél is a nyílt forráskóddal házaló Elon Musk nemrég pont azért perelte be a mesterséges intelligenciában élen járó OpenAI-t, mert szerinte a cégnek vissza kellene térnie a valódi nonprofit működéshez, és nyílt forráskódúvá kellene tennie a fejlesztéseit.
Musk szerint az OpenAI túlzottan szorosra fűzte az együttműködését a Microsofttal, és kizárólag az ő érdekeiket szolgálja azzal, hogy nem osztja meg a modelljeit. A cég viszont néhány nappal később úgy reagált: Musknak valójában az nem tetszik, hogy már nem ő az OpenAI főnöke.