AIとMLの日本語ニュース

ザッケルベルグは、Llama 3よりもLlama 4をトレーニングするためにMetaが10倍のコンピューティング・パワーが必要になると述べた。

メタは、Llamaという大規模な言語モデルを開発しており、将来的にはモデルをトレーニングするために劇的にコンピューティング・パワーが必要になると考えている。マーク・ザッケンバーグは、火曜日の第2四半期決算会議で、Llama 4をトレーニングするために、Llamaをトレーニングするために必要だったコンピューティング・パワーの10倍が必要になると述べた。
favicon
techcrunch.com
Zuckerberg says Meta will need 10x more computing power to train Llama 4 than Llama 3
Create attached notes ...