LLM 모델Arcee AI
Arcee Trinity Large Thinking
Open-source frontier agent — 400B MoE, Apache 2.0
Trinity Large Thinking은 Arcee AI가 2026년 4월 2일 출시한 400B 파라미터 희소 MoE 추론 모델이다. 토큰당 13B 파라미터를 활성화하는 4-of-256 전문가 라우팅 방식으로, 400B 모델의 지식 밀도를 훨씬 낮은 추론 비용으로 제공한다. Apache 2.0 라이선스로 상업적 이용·수정·재배포가 완전히 허용된다. 컨텍스트 윈도우는 262,144 토큰(262K), 최대 출력도 262K. 추론 시 <think>...</think> 블록으로 명시적 사고 추적을 생성한다. 에이전틱 벤치마크에서 τ²-Bench 94.7%, PinchBench #2(91.9%)를 기록하며, 비용은 Claude Opus 4.6 대비 약 96% 저렴. 멀티턴 도구 호출, 장기 수평 태스크, 엔터프라이즈 자체 호스팅에 최적화돼 있다. OpenRouter에서 API 이용 가능.
컨텍스트
262.144K tokens
입력 가격
$0.22/1M
출력 가격
$0.85/1M
멀티모달
text
핵심 역량
오픈소스
Apache 2.0 — 엔터프라이즈 완전 허용
에이전트 추론
PinchBench #2, τ²-Bench 94.7%
비용 효율
$0.22/1M — Claude Opus 대비 96% 절감
긴 컨텍스트
262K 입출력 모두 지원
MoE 아키텍처
400B 총 파라미터 / 13B 활성
추론 추적
<think> 블록 명시적 사고 과정 출력
장점
- Apache 2.0 — 상업적 이용·수정·재배포 완전 허용
- 400B 지식 밀도, 13B 활성 파라미터 — 저지연 추론
- PinchBench #2, τ²-Bench 94.7% — 에이전트 최강 수준
- $0.22/1M 입력 — Claude Opus 4.6 대비 96% 저렴
- 262K 컨텍스트 + 262K 출력
- <think> 추론 추적으로 설명 가능한 AI 구현
단점
- 미국계 소형 스타트업 — 장기 지원 불확실
- 400B 자체 호스팅 시 대규모 GPU 인프라 필요
- Vision/오디오 멀티모달 미지원 (텍스트 전용)
- 한국어 성능 검증 데이터 부족