Meta, som udvikler en af de største grundlæggende open-source sprogmodeller, Llama, mener, at det vil kræve betydeligt mere beregningskraft for at træne modeller i fremtiden. Mark Zuckerberg sagde på Meta's andet kvartals indtægtsopkald tirsdag, at for at træne Llama 4 vil virksomheden behøve 10x mere beregningskraft end hvad der var nødvendigt for at træne [...]
techcrunch.com
Zuckerberg says Meta will need 10x more computing power to train Llama 4 than Llama 3
Create attached notes ...
