AI og ML nyheter på norsk

Zuckerberg sier at Meta vil trenge 10 ganger mer beregningskraft for å trene Llama 4 enn Llama 3

Meta, som utvikler en av de største grunnleggende åpne kildekode-språkmodellene, Llama, tror at det vil trenge betydelig mer beregningskraft for å trene modeller i fremtiden. Mark Zuckerberg sa under Meta's andre kvartals inntektsopprop tirsdag at for å trene Llama 4 vil selskapet trenge 10x mer beregningskraft enn det som var nødvendig for å trene [...]
favicon
techcrunch.com
Zuckerberg says Meta will need 10x more computing power to train Llama 4 than Llama 3
Create attached notes ...