Meta, che sviluppa uno dei più grandi modelli di linguaggio open-source, Llama, ritiene che avrà bisogno di una potenza di calcolo significativamente maggiore per addestrare i modelli in futuro. Mark Zuckerberg ha affermato durante la chiamata di bilancio del secondo trimestre di Meta, martedì, che per addestrare Llama 4 la società avrà bisogno di 10 volte più potenza di calcolo rispetto a quella necessaria per addestrare i precedenti modelli.
techcrunch.com
Zuckerberg says Meta will need 10x more computing power to train Llama 4 than Llama 3
Create attached notes ...
