Мета, разрабатывающая одну из крупнейших основополагающих открытых языковых моделей, Llama, считает, что ей потребуется значительно больше вычислительной мощности для обучения моделей в будущем. Марк Цукерберг заявил во время звонка по результатам второго квартала Meta во вторник, что для обучения Llama 4 компания будет нуждаться в 10 раз больше вычислительной мощности, чем та, что была необходима для обучения […]
techcrunch.com
Zuckerberg says Meta will need 10x more computing power to train Llama 4 than Llama 3
Create attached notes ...
