AI en ML nieuws in het Nederlands

Zuckerberg zegt dat Meta 10 keer meer rekenkracht nodig heeft om Llama 4 te trainen dan Llama 3

Meta, dat een van de grootste open-source basis-taalmodellen ontwikkelt, Llama, gelooft dat het aanzienlijk meer rekenkracht nodig zal hebben om modellen in de toekomst te trainen. Mark Zuckerberg zei tijdens de tweede kwartaalwinstoproep van Meta op dinsdag dat om Llama 4 te trainen, het bedrijf 10 keer meer rekenkracht nodig zal hebben dan nodig was om Llama 3 te trainen.
favicon
techcrunch.com
Zuckerberg says Meta will need 10x more computing power to train Llama 4 than Llama 3
Create attached notes ...