メタは、Llamaという大規模な言語モデルを開発しており、将来的にはモデルをトレーニングするために劇的にコンピューティング・パワーが必要になると考えている。マーク・ザッケンバーグは、火曜日の第2四半期決算会議で、Llama 4をトレーニングするために、Llamaをトレーニングするために必要だったコンピューティング・パワーの10倍が必要になると述べた。
techcrunch.com
Zuckerberg says Meta will need 10x more computing power to train Llama 4 than Llama 3
Create attached notes ...
