Китайские исследовательские лаборатории возглавляют разработку языковых моделей Mixture-of-Experts (MoE) с открытым весом, часто с превосходной производительностью на эталонных тестах. В ответ американская компания Arcee AI запустила свою новую линейку "Trinity", первые полностью обученные в США модели MoE с открытым весом. Первоначальные выпуски, Trinity Mini и Trinity Nano Preview, доступны для бесплатной загрузки и модификации под лицензией Apache 2.0. Эти модели представляют собой значительную попытку американского стартапа построить модели с открытым весом с нуля, используя американскую инфраструктуру и отобранные наборы данных. Trinity Mini - это модель с 26 миллиардами параметров, предназначенная для высокой пропускной способности, в то время как Trinity Nano Preview - это меньшая, экспериментальная модель с 6 миллиардами параметров. Обе модели используют новую архитектуру Attention-First Mixture-of-Experts (AFMoE) от Arcee, которая объединяет скудную маршрутизацию экспертов с улучшенными механизмами внимания для улучшения рассуждений и эффективности. Arcee сотрудничала с DatologyAI по курированию данных и с Prime Intellect по вычислительной инфраструктуре, чтобы выполнить этот амбициозный проект полностью в США. Этот стратегический шаг подчеркивает суверенитет и контроль над процессом обучения, что является критическим фактором для будущего корпоративного ИИ. Arcee также обучает Trinity Large, модель с 420 миллиардами параметров, запуск которой запланирован на январь 2026 года, с целью стать моделью мирового уровня, обученной в США с открытым весом. Запуск Trinity означает возобновление усилий по внутреннему, контролируемому развитию в ландшафте открытых LLM.
venturebeat.com
Arcee aims to reboot U.S. open source AI with new Trinity models released under Apache 2.0
t.me
AI и ML Дайджест в Телеграмм канале @ai_ml_news_ru
Create attached notes ...
