TechFeedTechFeed
LLM 모델Alibaba Cloud

Qwen3-Coder-Next

Open-source agentic coding MoE for local and cloud deployment

Qwen3-Coder-Next는 Alibaba Qwen 팀이 2026년 4월 24일 공개한 코딩 특화 오픈소스 MoE 모델이다. 80B 총 파라미터에 토큰당 3B만 활성화되는 효율적 구조로, 단일 H100에서도 로컬 실행이 가능하다. 7.5조 토큰(약 70% 코드 데이터)으로 사전학습 후 실행 기반 코딩 태스크(코드 실행, 도구 사용, 멀티 턴 에이전트 루프)에 특화 파인튜닝을 거쳤다. SWE-bench Verified 58.7%로 Claude Sonnet 4.6(62.4%)에 근접하며, 256K 네이티브 컨텍스트(최대 1M 확장)로 소규모 모노레포 전체를 컨텍스트에 유지할 수 있다. ollama를 통한 간편 로컬 배포를 지원하며, MoE 구조 덕분에 나머지 77B 유휴 파라미터는 시스템 RAM/NVMe에 오프로드된다.

컨텍스트
256K tokens
입력 가격
API 문의
출력 가격
API 문의
멀티모달
text

핵심 역량

SWE-bench Verified
58.7% — 오픈소스 최고 수준
MoE 효율
80B 총/3B 활성 — 단일 H100 실행
컨텍스트
256K 네이티브 (최대 1M)
로컬 배포
ollama + 단일 GPU 지원
코드 품질
7.5T 토큰 70% 코드 사전학습
오픈소스
가중치 공개, 상업적 사용 가능

장점

  • SWE-bench Verified 58.7% — Claude Sonnet 4.6(62.4%)에 근접하는 오픈소스 최고 수준
  • 80B/3B MoE — 단일 H100에서 로컬 실행 가능, 인프라 비용 절감
  • 256K 네이티브 컨텍스트 (최대 1M 확장) — 소규모 모노레포 전체 처리
  • 7.5T 토큰(70% 코드) 사전학습 — 코드 품질 탁월
  • ollama 지원 — 간편 로컬 배포
  • 오픈소스 가중치 공개 — 사내 배포·파인튜닝 자유

단점

  • SWE-bench에서 Claude Sonnet 4.6 대비 3.7포인트 열위
  • GPT-5.5(82.7% Terminal-Bench) 대비 에이전틱 완성도 차이
  • API 가격 미공개 — 클라우드 사용 비용 예측 어려움
  • 멀티모달(이미지/비디오) 미지원 — 텍스트/코드 전용

공식 링크