LLM 모델Mistral AI
Mistral Large 3
Open-weight MoE model for production
Mistral Large 3는 Mistral AI가 2025년 12월 출시한 오픈웨이트 Mixture-of-Experts 모델이다. 675B 총 파라미터 중 41B가 활성화되는 MoE 아키텍처로, GPT-5.2 성능의 92%를 약 15% 비용으로 달성한다. 262K 토큰 컨텍스트, 네이티브 비전, 함수 호출, 구조화된 출력을 지원하며, 다국어(특히 비영어/비중국어) 벤치마크에서 오픈웨이트 모델 중 최상위다. Apache 2.0 라이선스로 상용 이용과 파인튜닝이 자유롭다.
컨텍스트
262K tokens
입력 가격
$0.50/1M tokens
출력 가격
$1.50/1M tokens
멀티모달
text, image
핵심 역량
컨텍스트 윈도우
262K 토큰
코딩 강도
우수 (OSS 비추론 모델 2위)
추론 강도
우수
가격 효율
입력 $0.50/1M — 오픈웨이트 고성능 최저가 급
오픈소스
Apache 2.0, 상용 가능
다국어
비영어/비중국어 오픈웨이트 최상위
장점
- GPT-5.2 성능 92% 달성 — 오픈웨이트 최상위급
- 입력 $0.50/1M — Claude Opus의 1/10, GPT-5.4의 1/5 가격
- 262K 토큰 컨텍스트 — 대부분의 실무 워크로드 커버
- Apache 2.0 오픈웨이트 — 상용 이용·파인튜닝 자유
- 다국어(비영어/비중국어) 벤치마크 오픈웨이트 1위
- Amazon Bedrock·Azure Foundry·Vertex AI 등 주요 클라우드 지원
단점
- 675B 파라미터 — 셀프호스팅 시 대규모 GPU 클러스터 필요
- 컨텍스트 262K — 1M급 모델(Claude/GPT/DeepSeek) 대비 짧음
- Claude Code·ChatGPT 수준 에이전트 생태계 미비
- 코딩 특화는 Claude Opus 4.6·DeepSeek V4 대비 열위