TechFeedTechFeed
LLM 모델Zhipu AI

GLM-5

China's frontier open-source MoE rivaling proprietary models

GLM-5는 중국 Zhipu AI가 2026년 2월 13일 MIT 라이선스로 공개한 744B 파라미터 Mixture-of-Experts 모델이다. 추론 시 40B 파라미터만 활성화하여 효율적으로 동작한다. Huawei Ascend 칩으로만 훈련해 NVIDIA GPU 없이 개발된 최초의 프론티어급 오픈소스 모델이며, SWE-bench Verified 77.8%, Humanity's Last Exam 50.4%로 Claude Opus 4.5를 상회한다. DeepSeek Sparse Attention을 활용해 200K 토큰 컨텍스트를 지원하고, 최대 128K 토큰 출력이 가능하다. Z.ai 플랫폼, OpenRouter, Hugging Face에서 이용 가능하다.

컨텍스트
200K tokens
입력 가격
$1.00/1M tokens
출력 가격
$3.20/1M tokens
멀티모달
text

핵심 역량

코딩 강도
SWE-bench 77.8%, 오픈소스 1위
추론 강도
HLE 50.4%, Claude Opus 4.5 상회
컨텍스트 윈도우
200K 토큰
가격
API $1.00/1M 입력, 무료 채팅
오픈소스
MIT 라이선스, HF 공개
출력 길이
최대 128K 토큰 단일 응답

장점

  • SWE-bench Verified 77.8% — 오픈소스 최상위 코딩 성능
  • Humanity's Last Exam 50.4% — 고난도 추론 벤치마크 상위
  • MIT 라이선스 — 완전 자유 오픈소스
  • API 입력 $1.00/1M — Claude Opus 대비 약 6배 저렴
  • 200K 컨텍스트 + 최대 128K 출력
  • chat.z.ai에서 무료 사용 가능
  • 업계 최저 할루시네이션 비율

단점

  • 744B MoE 모델 — 셀프호스팅 시 대규모 GPU 필요
  • GLM-5-Code API는 출력 $5.00/1M으로 비교적 고가
  • 영어·중국어 외 다국어 성능 검증 부족
  • 생태계·커뮤니티가 Llama/DeepSeek 대비 작음
  • Huawei Ascend 훈련으로 NVIDIA 최적화 미검증

이 모델이 포함된 비교

공식 링크