RSS VentureBeat

아르시(Arcee)는 새로운 트리니티(Trinity) 모델을 아파치 2.0(Apache 2.0) 라이선스로 공개하여 미국의 오픈 소스 AI를 재부팅하려고 합니다.

중국의 연구소들이 종종 더 뛰어난 벤치마크 성능을 보이면서, 오픈 웨이트(open-weight) MoE(Mixture-of-Experts) 언어 모델 개발을 주도해 왔습니다. 이에 대응하여, 미국의 회사 Arcee AI는 최초의 완전 미국 훈련 오픈 웨이트 MoE 모델인 새로운 "Trinity" 제품군을 출시했습니다. 초기 출시 모델인 Trinity Mini와 Trinity Nano Preview는 Apache 2.0 라이선스 하에 무료로 다운로드 및 수정이 가능합니다. 이 모델들은 미국의 스타트업이 미국 인프라와 큐레이션된 데이터 세트를 사용하여 처음부터 엔드 투 엔드(end-to-end) 오픈 웨이트 모델을 구축하려는 중요한 노력을 나타냅니다. Trinity Mini는 높은 처리량을 위해 설계된 260억 개의 파라미터를 가진 모델이며, Trinity Nano Preview는 더 작고 실험적인 60억 개의 파라미터 모델입니다. 두 모델 모두 Arcee의 새로운 AFMoE(Attention-First Mixture-of-Experts) 아키텍처를 사용하며, 이는 향상된 추론 및 효율성을 위해 희소 전문가 라우팅과 향상된 어텐션 메커니즘을 통합합니다. Arcee는 이 야심찬 프로젝트를 전적으로 미국 내에서 실행하기 위해 데이터 큐레이션을 위해 DatologyAI와, 컴퓨팅 인프라를 위해 Prime Intellect와 협력했습니다. 이러한 전략적 움직임은 모델 주권과 훈련 과정에 대한 통제를 강조하며, 이는 미래 기업 AI에 중요한 요소입니다. Arcee는 또한 2026년 1월에 출시될 예정인 4200억 개의 파라미터 모델인 Trinity Large를 훈련하고 있으며, 프론티어급 미국 훈련 오픈 웨이트 모델을 목표로 하고 있습니다. Trinity 출시는 오픈 소스 LLM(대규모 언어 모델) 환경에서 국내에서 통제된 개발을 위한 새로운 추진력을 의미합니다.
favicon
bsky.app
AI and ML News on Bluesky @ai-news.at.thenote.app
favicon
venturebeat.com
Arcee aims to reboot U.S. open source AI with new Trinity models released under Apache 2.0
Create attached notes ...