OpenClaw — 클라우드 없이 돌아가는 개인 AI 비서가 25만 스타를 찍은 이유
로컬에서 돌아가고, WhatsApp·Telegram·Slack·iMessage까지 50개 플랫폼을 연결하는 개인 AI 에이전트. 주말 프로젝트가 깃허브 역사상 가장 빠른 성장을 기록했다.

주말 프로젝트가 25만 스타
PSPDFKit 창업자 Peter Steinberger가 주말에 만든 사이드 프로젝트. 그게 깃허브 역사상 가장 빠르게 성장한 오픈소스 중 하나가 됐다. 하루에 25,000스타. 9,000에서 60,000으로 며칠 만에 뛴 후, 현재 250,000+까지 갔다.
참고로 React는 2013년 공개 이후 현재 232K 스타다. OpenClaw는 몇 주 만에 React의 전체 스타 수를 넘어섰다.
Peter Steinberger는 누구인가
오스트리아 출신 개발자. PSPDFKit이라는 PDF SDK 회사를 창업하고 15년간 운영했다. iOS/macOS 개발 커뮤니티에서는 전설적인 인물. Apple의 WWDC에서 여러 번 발표했고, iOS 오픈소스 생태계에 큰 기여를 해왔다.
X(Twitter)에서 이렇게 밝혔다:
"금요일 밤에 시작해서 일요일 오후에 첫 버전을 올렸다. 월요일 아침에 일어나보니 스타가 9,000개였고, 화요일에는 60,000개였다. 뭔가 잘못된 줄 알았다."
뭘 하는 건데 — 상세 기능
OpenClaw는 로컬에서 돌아가는 개인 AI 비서다. 클라우드 의존성이 0이다. 네 디바이스에서만 실행되고, 네 데이터는 네 기기를 떠나지 않는다. ChatGPT나 Gemini처럼 서버에 데이터를 보내는 방식이 아니라, 추론(inference, 모델이 입력을 처리해 결과를 내는 과정)부터 데이터 저장까지 모든 처리가 사용자의 컴퓨터에서 이루어진다.
핵심 기능 1: 50+ 플랫폼 통합
WhatsApp, Telegram, Slack, Discord, Signal, iMessage, Email, SMS, Notion, Linear, GitHub, Calendar, Contacts 등 50개 이상 플랫폼을 하나의 AI 에이전트로 묶는다. "자는 동안에도 알아서 동작한다"가 모토.
구체적으로 할 수 있는 것들:
- WhatsApp으로 "내일 미팅 가능?" 메시지가 오면 캘린더를 확인하고 자동 응답
- Slack에서 멘션되면 관련 컨텍스트를 파악하고 적절한 답변 초안 작성
- 이메일 중 중요한 것만 필터링해서 Telegram으로 알림
- GitHub PR이 생성되면 자동으로 코드 리뷰 요약 생성
핵심 기능 2: 완전한 로컬 실행
- LLM: Ollama를 통해 Llama 3, Mistral, Phi-3 등 로컬 모델 사용. 권장 사양은 16GB RAM 이상이며, Apple Silicon(M1 이상) 또는 NVIDIA GPU가 있으면 응답 속도가 크게 향상된다
- 벡터 DB(벡터 데이터베이스): 내장 SQLite + 벡터 확장(sqlite-vec). 사용자의 대화 이력과 문서를 임베딩(embedding, 텍스트를 수치 벡터로 변환)하여 의미 기반 검색을 지원한다
- 프로세싱: 모든 데이터 처리가 로컬에서 수행
- 원하면 OpenAI/Anthropic API를 외부 LLM으로 연결할 수도 있지만, 기본은 100% 로컬. 외부 API 사용 시에는 해당 데이터가 외부 서버를 거치므로 프라이버시 이점이 줄어든다
핵심 기능 3: 개인 컨텍스트 학습
시간이 지나면서 사용자의 패턴을 학습한다:
- 자주 하는 대화 패턴
- 선호하는 응답 스타일
- 스케줄 패턴 (아침에는 짧은 답, 오후에는 상세한 답)
- 관계별 커뮤니케이션 톤 (상사에게는 formal, 친구에게는 casual)
모든 학습 데이터는 로컬 디바이스에만 저장된다.
핵심 기능 4: 자동화 워크플로우
YAML 기반 워크플로우 정의:
trigger:
platform: email
condition: "from:important-client@company.com"
actions:
- summarize_content
- notify:
platform: telegram
message: "Important email from {{sender}}"
- draft_reply:
tone: professional
context: last_3_emails
기술 스택
- 언어: Rust (핵심 엔진) + TypeScript (플러그인 시스템). Rust를 선택한 이유는 메모리 안전성과 바이너리 크기 최적화 — 전체 바이너리가 약 25MB로, 별도 런타임 설치가 불필요하다
- LLM 통합: Ollama, llama.cpp, OpenAI API, Anthropic API. GGUF(GPT-Generated Unified Format, 양자화 모델 포맷) 형식의 모델을 직접 로드할 수도 있다
- 메시징: 각 플랫폼별 공식/비공식 API 래퍼(wrapper, 감싸는 인터페이스)
- 스토리지: SQLite + 벡터 확장 (로컬). 모든 데이터는 AES-256으로 암호화하여 저장
- UI: 웹 기반 대시보드 (localhost:3847)
- 배포: 단일 바이너리(single binary, 하나의 실행 파일) — macOS, Linux, Windows 지원
왜 터졌나 — 타이밍의 법칙
1. 프라이버시 퍼스트
클라우드 AI에 대한 피로감이 극에 달한 타이밍이다. Pew Research의 2024년 조사에 따르면, 미국 성인의 81% 가 "기업이 수집하는 개인정보에 대해 통제권이 없다"고 느끼고 있다. EU의 AI Act, 한국의 AI 기본법 등 규제 강화도 이 흐름을 가속화하고 있다.
2. 즉시 사용 가능
복잡한 설정 없이 로컬에서 바로 실행된다:
curl -fsSL https://openclaw.dev/install.sh | sh
openclaw setup # 대화형 설정 (연동할 플랫폼 선택)
openclaw start # 백그라운드에서 실행
5분이면 설치부터 첫 자동화까지 완료된다.
3. 원 퍼슨 빌드의 바이럴
한 명이 주말에 만들었다는 스토리 자체가 바이럴 요소였다. Hacker News에서 "이게 진짜 한 명이 만든 거냐"는 댓글이 수백 개 달렸다. Steinberger는 "Rust의 생산성과 기존 메시징 라이브러리 덕분에 가능했다"고 답했다.
4. 오픈소스 커뮤니티의 힘
공개 1주일 만에 PR이 300개 넘게 들어왔다. 커뮤니티가 자발적으로 새로운 플랫폼 플러그인을 만들어 기여했다. KakaoTalk, LINE, WeChat 플러그인도 커뮤니티 기여로 추가됐다.
경쟁 환경
| 제품 | 실행 환경 | 프라이버시 | 플랫폼 수 | 가격 |
|---|---|---|---|---|
| OpenClaw | 로컬 | 100% 로컬 | 50+ | 무료 (OSS) |
| Apple Intelligence | 로컬+클라우드 | 하이브리드 | Apple만 | 무료 |
| Google Gemini | 클라우드 | 서버 처리 | Google 생태계 | 무료/유료 |
| Microsoft Copilot | 클라우드 | 서버 처리 | M365 | $30/월 |
| Rabbit R1 | 클라우드 | 서버 처리 | 제한적 | $199 (하드웨어) |
성장 데이터 타임라인
| 날짜 | 스타 수 | 이벤트 |
|---|---|---|
| 3/1 | 0 | 첫 커밋 |
| 3/2 | 142 | GitHub 공개 |
| 3/3 | 9,000 | Hacker News 1위 |
| 3/4 | 25,000 | X/Twitter 바이럴 |
| 3/5 | 60,000 | Product Hunt 1위 |
| 3/7 | 100,000 | 주요 기술 미디어 보도 |
| 3/14 | 200,000 | v0.3 릴리스 (음성 지원) |
| 3/19 | 250,000+ | 현재 |
한계
- 플랫폼 API 제약: WhatsApp, iMessage 등은 공식 API가 제한적. 비공식 방법 사용 시 계정 정지 위험. 특히 WhatsApp은 Meta가 2025년부터 비공식 API 사용을 적극 단속하고 있어, 장기적 안정성이 불확실하다
- 로컬 모델 성능: Llama 3 8B 수준의 로컬 모델은 GPT-4o 대비 벤치마크 정확도가 약 30~40% 낮다. 단순 요약이나 분류 작업에서는 차이가 미미하지만, 복잡한 추론이 필요한 작업에서는 체감된다
- 리소스 사용: 항시 백그라운드 실행 시 CPU/메모리 사용. 유휴 시 약 200MB RAM, 활성 추론 시 4~8GB RAM을 사용한다. 8GB RAM MacBook에서는 다른 앱과 리소스 경쟁이 발생할 수 있음
- 보안 감사 미완료: 빠른 성장 속에 아직 전문 보안 감사(security audit)를 거치지 않음. 50개 이상 플랫폼의 인증 토큰을 로컬에 저장하기 때문에, 기기 분실이나 악성 코드에 의한 토큰 유출 위험이 있다
관련 프로젝트와 배경 지식
로컬 AI 운동의 계보
OpenClaw는 갑자기 나타난 게 아니다. 2023년부터 시작된 로컬 AI 운동의 정점이다:
- llama.cpp (2023.3): Georgi Gerganov가 C++로 만든 Llama 추론 엔진. M1 MacBook에서 LLM 구동을 처음으로 실용화
- Ollama (2023.8): llama.cpp를 쉽게 쓸 수 있게 래핑. "Docker for LLMs"
- Jan.ai (2024.1): 로컬 ChatGPT 대안. 깔끔한 UI
- PrivateGPT (2023~2024): 로컬 문서 RAG
- OpenClaw (2026.3): 로컬 AI를 메시징과 자동화까지 확장
각 단계마다 로컬 AI의 범위가 넓어져 왔다. llama.cpp가 "가능성"을 보여줬다면, OpenClaw는 "일상에서 쓸 수 있는 제품"으로 만든 셈이다.
비공식 API의 법적 리스크
OpenClaw의 가장 큰 기술적/법적 리스크는 WhatsApp, iMessage 등의 비공식 API 사용이다. Meta는 WhatsApp의 비공식 API 사용에 대해 적극적으로 계정 차단을 시행하고 있다. 2025년에는 비공식 API를 사용한 서드파티 앱 개발자를 상대로 소송을 제기한 사례도 있다. OpenClaw 커뮤니티에서는 Matrix/XMPP 브릿지를 통한 우회 방법을 논의 중이지만, 근본적 해결은 아니다.
온디바이스 AI의 미래
Apple Intelligence(2024~), Google의 Gemini Nano, Qualcomm의 AI Engine이 보여주듯, AI가 클라우드에서 디바이스로 내려오는 트렌드는 거스를 수 없다. 이 트렌드의 핵심 동력은 모델 양자화(quantization, 모델의 정밀도를 낮춰 크기를 줄이는 기술) 기술의 발전이다. 2023년에는 7B 파라미터 모델을 4비트 양자화하면 품질 저하가 심했지만, 2026년에는 GGUF 포맷의 발전으로 4비트에서도 원본 대비 95% 이상의 품질을 유지한다. Apple은 2026년 WWDC에서 Apple Intelligence 2.0을 발표할 예정이며, 온디바이스(on-device, 기기 자체에서 실행하는) 에이전트 기능을 대폭 확대할 것으로 예상된다. 이때 OpenClaw와 직접 경쟁하게 될 수 있다.
시사점
AI 에이전트의 방향이 "더 큰 클라우드"에서 "더 가까운 로컬" 로 분기하고 있다. OpenClaw의 폭발적 성장은 사용자들이 프라이버시와 자율성을 얼마나 원하는지 보여준다.
더 근본적으로, "AI 비서"의 정의가 바뀌고 있다. Siri나 Alexa처럼 음성 명령에 반응하는 수동적 비서에서, 사용자의 디지털 라이프 전체를 관리하는 능동적 에이전트로 진화하고 있다. 그리고 그 에이전트가 클라우드가 아니라 네 주머니 속 디바이스에서 돌아간다.
Steinberger는 다음 목표로 OpenClaw Pro (유료 서비스)를 예고했다. 로컬 실행 원칙은 유지하면서, 기업용 관리 기능(팀원 디바이스 일괄 설정, 플러그인 정책 관리)과 프리미엄 플러그인을 제공할 계획이다. 오픈 코어(Open Core, 핵심은 오픈소스로 유지하되 부가 기능으로 수익화) 모델로, Redis, GitLab 등이 성공적으로 검증한 비즈니스 모델을 따른다. 다만 GitLab이 2023년에 핵심 기능을 유료로 전환해 커뮤니티 반발을 산 사례가 있듯, 오픈 코어 모델에서 "어디까지가 무료인가"의 경계를 잘 잡는 것이 장기적 성패를 가를 것이다.
관련 기사

7주 만에 95,600스타 -- Nous Research의 자기개선 에이전트 Hermes Agent
스스로 평가하고, 스스로 개선하는 AI 에이전트 프레임워크가 오픈소스 역사상 가장 빠른 성장 속도 중 하나를 기록했다. 하루 1,500스타씩 올라간 이유를 뜯어본다.

GPQA 32% -- HuggingFace의 AI 인턴이 10시간 만에 Claude Code를 이겼다
논문 검색부터 데이터셋 발굴, 학습 스크립트 작성, 평가, 반복까지 LLM 후학습 전 과정을 자동화하는 오픈소스 에이전트. 6,800스타, 하루 260개씩 증가 중.

ML 후학습을 통째로 자동화하는 AI 인턴 -- HuggingFace ml-intern PH 론칭
논문 검색부터 데이터 수집, 학습, 평가까지 LLM 후학습 전 과정을 자동으로 돌리는 오픈소스 에이전트. Product Hunt 365 업보트.
AI 트렌드를 앞서가세요
매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.
