AI og ML nyheder på dansk

Zuckerberg siger, at Meta vil behøve 10 gange mere beregningskraft til at træne Llama 4 end Llama 3

Meta, som udvikler en af de største grundlæggende open-source sprogmodeller, Llama, mener, at det vil kræve betydeligt mere beregningskraft for at træne modeller i fremtiden. Mark Zuckerberg sagde på Meta's andet kvartals indtægtsopkald tirsdag, at for at træne Llama 4 vil virksomheden behøve 10x mere beregningskraft end hvad der var nødvendigt for at træne [...]
favicon
techcrunch.com
Zuckerberg says Meta will need 10x more computing power to train Llama 4 than Llama 3
Create attached notes ...