Meta, dat een van de grootste open-source basis-taalmodellen ontwikkelt, Llama, gelooft dat het aanzienlijk meer rekenkracht nodig zal hebben om modellen in de toekomst te trainen. Mark Zuckerberg zei tijdens de tweede kwartaalwinstoproep van Meta op dinsdag dat om Llama 4 te trainen, het bedrijf 10 keer meer rekenkracht nodig zal hebben dan nodig was om Llama 3 te trainen.
techcrunch.com
Zuckerberg says Meta will need 10x more computing power to train Llama 4 than Llama 3
Create attached notes ...
