Meta, qui développe l'un des plus grands modèles de langage open-source, Llama, estime qu'elle aura besoin d'une puissance de calcul significativement plus élevée pour entraîner les modèles à l'avenir. Mark Zuckerberg a déclaré lors de l'appel des résultats du deuxième trimestre de Meta le mardi que pour entraîner Llama 4, la société aura besoin de 10 fois plus de puissance de calcul que ce qui était nécessaire pour entraîner [...]
techcrunch.com
Zuckerberg says Meta will need 10x more computing power to train Llama 4 than Llama 3
Create attached notes ...
