RSS Techmeme

Mistral veröffentlicht Mistral Saba, ein 24-Billionen-Parameter-Modell, das speziell auf die arabische Sprache und Kultur trainiert wurde, über seine API; Saba übertrifft Mistral Small 3 (Romain Dillet/TechCrunch)

Romain Dillet / TechCrunch: Mistral veröffentlicht Mistral Saba, ein 24-B-Parameter-Modell, das speziell auf die arabische Sprache und Kultur trainiert wurde, über seine API; Saba übertrifft Mistral Small 3 - Die nächste Front für große Sprachmodelle (LLMs), eine der Schlüsseltechnologien, die den Boom von generativen KI-Werkzeugen ermöglichen, könnte geografisch sein.
favicon
techmeme.com
Mistral releases Mistral Saba, a 24B-parameter custom-trained model focused on Arabic language and culture, via its API; Saba outperforms Mistral Small 3 (Romain Dillet/TechCrunch)