LLM 모델DeepSeek
DeepSeek V4
Open-source trillion-parameter MoE model
DeepSeek V4는 2026년 3월 출시된 1조 파라미터 Mixture-of-Experts 모델이다. 256개 전문가 중 8개+1개 공유 전문가가 토큰당 활성화되어 37B 활성 파라미터로 추론한다. Engram 아키텍처(MoE 2.0)로 V3 대비 메모리 사용 40% 절감, 파라미터 활용 40% 향상을 달성했다. 1M 토큰 컨텍스트, 네이티브 멀티모달, 코딩·장문 소프트웨어 엔지니어링 최적화가 강점이다. Apache 2.0 라이선스 오픈소스로 셀프호스팅 가능하며, API도 $0.30/1M 입력으로 업계 최저가를 제공한다.
컨텍스트
1M tokens
입력 가격
$0.30/1M tokens
출력 가격
$1.10/1M tokens
멀티모달
text, image
핵심 역량
컨텍스트 윈도우
1M 토큰
코딩 강도
장문 코드 생성 최적화
추론 강도
Engram 아키텍처 기반
가격 효율
입력 $0.30/1M — 업계 최저가
오픈소스
Apache 2.0, 셀프호스팅·파인튜닝 자유
MoE 효율
1T 총 파라미터, 37B 활성
장점
- 입력 $0.30/1M — GPT-5.4 대비 8배, Claude Opus 대비 17배 저렴
- 1M 토큰 컨텍스트 — 장문 코드베이스 전체 처리 가능
- Engram 아키텍처(MoE 2.0) — V3 대비 메모리 40% 절감
- Apache 2.0 오픈소스 — 셀프호스팅·파인튜닝 자유
- 캐시 히트 90% 할인 — 반복 프롬프트 시 $0.03/1M까지 절감
- 코딩·장문 소프트웨어 엔지니어링 작업 최적화
단점
- 벤치마크 자체 보고 — 제3자 독립 검증 미완료 (2026.03 기준)
- 셀프호스팅 시 대규모 GPU 클러스터 필요 (1T 파라미터)
- 중국 기반 — 일부 기업에서 데이터 주권 우려 가능
- Claude Code·GPT 생태계 대비 도구 통합 부족
- 영어 외 한국어 성능은 제한적일 수 있음