AI och ML nyheter på svenska

Zuckerberg säger att Meta kommer att behöva 10 gånger mer beräkningskraft för att träna Llama 4 än Llama 3

Meta, som utvecklar en av de största grundläggande öppna källkodiga storspråkmodellerna, Llama, tror att det kommer att behöva betydligt mer beräkningskraft för att träna modeller i framtiden. Mark Zuckerberg sa under Metas andra kvartals resultatkonferens på tisdagen att för att träna Llama 4 kommer företaget att behöva 10x mer beräkningskraft än vad som behövdes för att träna [...]
favicon
techcrunch.com
Zuckerberg says Meta will need 10x more computing power to train Llama 4 than Llama 3
Create attached notes ...