LLM 모델Zhipu AI
GLM-5.1
GLM-5 post-training upgrade — 94% of Claude Opus 4.6 coding at fraction of cost
GLM-5.1은 Zhipu AI(Z.AI)가 2026년 3월 27일 공개한 GLM-5의 포스트트레이닝 업그레이드 버전이다. GLM-5 대비 코딩 벤치마크 점수가 35.4에서 45.3으로 28% 향상됐으며, 이는 Claude Opus 4.6(47.9) 대비 94.6% 수준이다. 아키텍처는 744B 파라미터 MoE 구조(8 전문가 활성/토큰)를 유지해 추론 시 40B 파라미터만 활성화된다. Huawei Ascend 910B 칩 10만 개로 학습됐으며, MindSpore 프레임워크를 사용한다. 4월 6~7일 모델 가중치 오픈소스 공개 예정이며, MIT 라이선스 적용으로 셀프호스팅 가능하다. GLM Coding Plan은 월 $3 프로모션 가격으로 제공된다.
컨텍스트
200K tokens
입력 가격
$1.00/1M tokens
출력 가격
$3.20/1M tokens
멀티모달
text
핵심 역량
코딩 강도
SWE-bench 코딩 45.3점, Opus 4.6의 94.6%
추론 강도
HLE 기반 고난도 추론
컨텍스트 윈도우
200K 토큰
가격
API $1.00/1M 입력, 무료 채팅
오픈소스
MIT 라이선스, HF 가중치 공개 예정
효율성
40B 활성 파라미터로 저비용 추론
장점
- GLM-5 대비 코딩 28% 향상 — 45.3점(Claude Opus 4.6의 94.6%)
- 744B MoE 중 40B만 활성 — 추론 비용 최소화
- MIT 라이선스 오픈소스 — 가중치 공개 예정
- API 입력 $1.00/1M — 프리미엄 모델 대비 저렴
- chat.z.ai 무료 웹 인터페이스 제공
단점
- 성능 수치 자체 보고 — 독립 검증 미완료
- 744B 모델 — 셀프호스팅 시 대규모 GPU 인프라 필요
- Huawei Ascend 훈련 — NVIDIA GPU 최적화 미검증
- 영어·중국어 외 다국어 성능 검증 부족
- GLM-5.1 Code API 출력 $5.00/1M으로 상대적 고가