한 줄 요약: 오스트리아 개발자 1명이 만든 오픈소스 AI 에이전트 플랫폼 OpenClaw가 GitHub 스타 25만 개를 돌파하며 AI 모델 커머디티화 논쟁에 불을 붙였다. OpenAI·Anthropic 같은 대형 랩이 아닌 독립 개발자가 "다음 ChatGPT"를 만들 수 있다는 사실이 AI 투자 구조에 근본적 질문을 던진다.
이 글이 필요한 사람
- AI 에이전트 프레임워크 도입을 검토 중인 백엔드/인프라 엔지니어
- 로컬 LLM + 에이전트 자동화로 비용을 줄이려는 스타트업 개발자
- 오픈소스 AI 생태계 동향을 추적하는 CTO·기술 리더
- AI 모델 커머디티화가 자사 제품 전략에 미치는 영향을 판단해야 하는 PM
기준일: 2026년 3월 25일. 출처: CNBC, GitHub, KDnuggets
OpenClaw는 로컬 디바이스에서 실행되는 오픈소스 AI 에이전트 플랫폼이다. 2025년 11월 오스트리아 개발자 Peter Steinberger가 "Clawdbot"이라는 이름으로 첫 릴리스했고, Anthropic의 상표 이의 제기를 거쳐 2026년 1월 "OpenClaw"로 이름을 바꿨다.
| 지표 | 수치 (2026년 3월 기준) |
|---|
| GitHub 스타 | 250,000+ (React를 추월, 역대 최다) |
| 포크 | 47,700+ |
| 커뮤니티 스킬 | 100개 이상 (Gmail, GitHub, Notion, Spotify 등) |
| 지원 메신저 | 22개 (WhatsApp, Telegram, Slack, Discord, iMessage 등) |
| 창시자 | Peter Steinberger (2026년 2월 OpenAI 합류) |
폭발 성장의 핵심은 세 가지다. 첫째, 22개 메신저를 단일 게이트웨이로 연결한다는 점에서 기존 AI 챗봇과 접근 방식이 다르다. 둘째, 로컬 실행이 기본이라 데이터가 외부로 나가지 않는다. 셋째, Ollama·vLLM과 연동해 클라우드 API 비용 없이도 운영이 가능하다.
OpenClaw의 핵심은 Gateway 프로세스다. Mac, PC, 또는 VPS에서 Node.js 백그라운드 서비스로 실행되며, 메신저 채널과 상시 연결을 유지한다.
동작 흐름:
- 사용자가 WhatsApp/Telegram 등에서 메시지를 보낸다
- Gateway가 메시지를 수신하고 WebSocket API를 통해 에이전트에 전달한다
- 에이전트가 LLM(Claude, DeepSeek, GPT, 또는 로컬 모델)에 쿼리를 보낸다
- 필요 시 "스킬"을 호출해 외부 서비스(Gmail, GitHub, Home Assistant 등)와 상호작용한다
- 결과를 메신저로 돌려보낸다
세 가지 프라이버시 원칙이 아키텍처 전반에 관통한다:
- Local Execution: 파일 읽기, 명령 실행, 결과 처리 모두 로컬에서 수행
- No Data Leaving: LLM API 호출 시에만 외부 통신 (로컬 모델 사용 시 완전 오프라인)
- User Control: 스킬별 권한을 세분화해 에이전트의 행동 범위를 제한
OpenClaw의 진짜 힘은 로컬 LLM과 결합했을 때 나온다. 클라우드 API 비용 없이 24시간 에이전트를 운영할 수 있다.
Ollama 연동 구성:
- Ollama를 설치하고 tool-capable 모델을 가져온다 (최소 컨텍스트 64K 토큰 권장)
- OpenClaw 설정에서
base_url을 http://localhost:11434/v1로 지정한다 - 모델 이름을 지정하면 로컬 추론으로 에이전트가 동작한다
vLLM 연동 구성 (프로덕션용):
- vLLM 서버를 시작한다 (OpenAI 호환 API 기본 제공)
- 설정에서
base_url을 http://localhost:8000/v1로 변경한다 - 배치 처리와 GPU 활용 최적화가 필요할 때 vLLM이 Ollama보다 유리하다
| 항목 | Ollama | vLLM |
|---|
| 적합 환경 | 개인 Mac/PC, 프로토타이핑 | 서버, 프로덕션 배포 |
| GPU 활용 | 단일 GPU, Apple Silicon 지원 | 멀티 GPU, CUDA 최적화 |
| 동시 요청 | 제한적 | PagedAttention으로 높은 처리량 |
| 설정 난이도 | 낮음 (CLI 한 줄) | 중간 (Python 환경 필요) |
OpenClaw의 성공이 AI 업계에 던지는 핵심 질문은 이것이다: "파운데이션 모델 자체의 가치가 줄어들고 있는가?"
Nvidia CEO Jensen Huang은 GTC 2026에서 OpenClaw를 "인류 역사상 가장 인기 있는 오픈소스 프로젝트"라고 부르며 "확실히 다음 ChatGPT"라고 말했다. Forrester 분석가 Charlie Dai는 이렇게 정리했다:
"파운데이션 모델이 빠르게 커머디티화되면서, 관심은 자율성·사용성·로컬 실행·제어를 강조하는 에이전트 프레임워크로 이동하고 있다."
— Charlie Dai, Forrester
커머디티화의 세 가지 근거:
- 오픈 웨이트 모델 성능 향상: DeepSeek, Llama 등이 프로프라이어터리 모델과의 격차를 빠르게 좁히고 있다
- 효율적 런타임의 보편화: Ollama, vLLM 같은 도구가 "작은 서버에서 모델 실행"을 현실화했다
- 에이전트 레이어의 가치 증가: 사용자에게는 어떤 모델을 쓰느냐보다 "무엇을 자동화할 수 있느냐"가 더 중요해졌다
개발자들이 Mac Mini 위에서 OpenClaw + 로컬 모델로 에이전트 함대를 운영하며 클라우드 API 비용 대비 90% 이상 절감하고 있다는 보고가 이를 뒷받침한다. CNBC는 이를 두고 "대형 AI 랩의 투자 논리에 근본적 결함이 있을 수 있다"고 보도했다.
OpenClaw와 모델 커머디티화 흐름이 개발자 실무에 미치는 영향은 구체적이다:
1. "어떤 모델을 쓸까"에서 "어떤 에이전트 프레임워크를 쓸까"로
API 비용과 모델 성능이 평준화되면서, 차별화 포인트가 모델 선택에서 에이전트 오케스트레이션·스킬 생태계·워크플로우 자동화로 이동한다. LangChain, CrewAI, AutoGen, OpenClaw 등 에이전트 프레임워크 선택이 아키텍처 결정의 핵심이 되고 있다.
2. 로컬 AI 인프라가 현실적 선택지가 됐다
Apple Silicon Mac, 소비자용 GPU(RTX 4090/5090)로 64K+ 컨텍스트의 20B 파라미터 모델을 쾌적하게 돌릴 수 있다. 개인 프로젝트나 스타트업 MVP에서 API 비용 제로로 AI 에이전트를 운영하는 것이 더 이상 실험이 아니다.
3. 보안·프라이버시 중심 설계가 기본값이 된다
OpenClaw가 "로컬 실행 우선"을 내세워 성공한 것은 데이터 주권에 대한 개발자들의 관심이 높아졌기 때문이다. 특히 GDPR·HIPAA 환경에서는 데이터가 외부로 나가지 않는 AI 에이전트가 컴플라이언스 요건을 충족하는 유일한 선택일 수 있다.
4. 스킬 생태계 참여가 새로운 기여 방식이 된다
OpenClaw의 100+개 커뮤니티 스킬은 npm 패키지처럼 공유·설치된다. 자신의 도구를 스킬로 패키징해 배포하면 에이전트 생태계에서의 가시성이 높아진다.
빠른 성장 뒤에는 간과할 수 없는 리스크도 있다:
피싱 공격: ainvest.com 보도에 따르면 OpenClaw를 사칭한 피싱 캠페인으로 개발자 지갑에서 약 3,000만 달러가 탈취되는 사건이 발생했다. 인기 있는 오픈소스 프로젝트가 공격 대상이 되는 전형적인 패턴이다.
거버넌스 불확실성: 창시자 Steinberger가 OpenAI에 합류하면서 프로젝트를 오픈소스 재단으로 이관한다고 발표했지만, 구체적인 거버넌스 구조는 아직 확정되지 않았다. 대규모 오픈소스 프로젝트에서 핵심 메인테이너가 빠진 뒤의 방향성 문제는 반복적으로 나타나는 리스크다.
보안 설계: 에이전트에게 Gmail·GitHub·Home Assistant 등의 권한을 부여하는 구조이므로, 스킬 권한 관리가 부실하면 심각한 보안 사고로 이어질 수 있다. 프롬프트 인젝션을 통한 에이전트 하이재킹도 활발히 연구되고 있는 위협이다.