Gemma 4와 OpenClaw 연동법 — macOS 로컬 AI 에이전트 완전 정복

목차
- 1. 왜 OpenClaw + Gemma 4 조합인가
- 2. Gemma 4 성능 — 숫자로 보는 도약
- 3. 사전 준비 — 모델 변형 선택
- 4. Step 1 — Ollama 설치 및 Gemma 4 받기
- 5. Step 2 — OpenClaw 설치
- 6. Step 3 — OpenClaw에 Ollama 연결하기
- 7. Step 4 — 연동 확인과 트러블슈팅
- 8. 실전 팁 — Apple Silicon 최적화
- 9. 마무리
- 참조 링크
OpenClaw는 Peter Steinberger가 만든 오픈소스 개인 AI 어시스턴트로, 자신의 맥(Mac)에서 직접 실행되며 파일 시스템·브라우저·메시징 앱까지 조작할 수 있는 자율 에이전트입니다. 여기에 Google이 2026년 4월 공개한 Gemma 4를 Ollama로 연결하면, 클라우드 API 비용 없이 완전히 로컬에서 동작하는 프라이빗 AI 에이전트를 구축할 수 있습니다. 이 글은 macOS(Apple Silicon 기준)에서 Gemma 4와 OpenClaw를 연동하는 전 과정을 단계별로 정리한 가이드입니다.
- Ollama를 통한 Gemma 4 설치 및 실행
- OpenClaw 설치(원라이너·npm·소스 빌드)
~/.openclaw/openclaw.json설정 파일 편집- 툴 콜링이 동작하도록 하는 필수 설정 주의사항
- Gemma 4 벤치마크와 모델 변형별 선택 기준
1. 왜 OpenClaw + Gemma 4 조합인가
OpenClaw는 기본적으로 Anthropic·OpenAI 같은 상용 API를 사용할 수 있지만, 로컬 모델을 연결하면 개인정보 유출 없이 자동화 워크플로우를 구축할 수 있습니다. 파일을 읽고 쉘 명령을 실행하는 에이전트 특성상, 대화 내용이 외부로 나가지 않는 것은 큰 장점입니다.
Gemma 4는 Apache 2.0 라이선스로 공개되어 상업적 이용까지 자유롭고, 가장 중요한 점은 네이티브 function calling을 지원한다는 것입니다. 이는 OpenClaw가 내부적으로 "파일을 읽어라", "브라우저를 열어라" 같은 도구 호출을 일으키는 동작 방식과 완벽하게 맞물립니다. 함수 호출이 없는 모델을 물리면 에이전트가 제 기능을 못 하므로, Gemma 4가 로컬 에이전트용 모델로 압도적으로 유리합니다.
2. Gemma 4 성능 — 숫자로 보는 도약
Gemma 4는 2026년 4월 2일 Google DeepMind가 공개한 최신 오픈 모델 패밀리로, 이전 세대 대비 특히 에이전트·도구 호출 영역에서 압도적인 성능 향상을 보여줍니다. 주요 벤치마크 수치는 다음과 같습니다.
| 벤치마크 | 측정 대상 | Gemma 4 점수 | 의미 |
|---|---|---|---|
| τ2-bench | 에이전트 도구 호출(리테일) | 86.4% (31B) | Gemma 3 27B의 6.6% → 13배 이상 도약 |
| MMLU Pro | 일반 지식·추론 | 85.2% (31B) / 69.4% (E4B) | 프런티어 상용 모델급 추론 능력 |
| AIME 2026 | 수학 경시대회 난제 | 88.3% (26B MoE) | 활성 파라미터 3.8B만으로 달성 |
| Arena AI | 종합 리더보드 | 글로벌 6위 (26B MoE) | 20배 이상 큰 모델과 경쟁 |
특히 τ2-bench는 이번 글의 핵심 지표입니다. OpenClaw처럼 파일·쉘·브라우저를 툴로 호출해야 하는 에이전트에서는 이 수치가 곧 "얼마나 안정적으로 일을 시킬 수 있는가"와 직결됩니다. Gemma 3 시절에는 로컬 에이전트 구축이 사실상 실험에 가까웠다면, Gemma 4부터는 실사용이 가능해진 것입니다.
3. 사전 준비 — 모델 변형 선택
Gemma 4는 네 가지 변형이 있으며, macOS에서 돌릴 경우 통합 메모리(Unified Memory) 용량이 곧 병목입니다.
| 변형 | 파라미터 | 최소 메모리 (4-bit) | 권장 macOS 환경 | 용도 |
|---|---|---|---|---|
| E2B | 2.3B | 4GB | M1/M2 8GB | 빠른 테스트·간단 분류 |
| E4B | 4.5B | 8GB | M1/M2 16GB | 가벼운 에이전트 자동화 |
| 26B MoE | 26B (활성 3.8B) | 20GB+ | M2 Max/M3 Pro 32GB | 실사용 에이전트 (권장) |
| 31B Dense | 31B | 24GB+ | M3 Max/M4 Max 36GB+ | 최고 품질 추론 |
16GB 통합 메모리라면 gemma4:e4b가 현실적입니다. 32GB 이상이라면 활성 파라미터만 3.8B로 매우 빠르면서 품질이 뛰어난 gemma4:26b를 권장합니다. 최고 품질이 필요하면 36GB 이상 장비에서 gemma4:31b를 선택하세요.
4. Step 1 — Ollama 설치 및 Gemma 4 받기
Ollama는 로컬 모델을 손쉽게 띄우는 러너입니다. Homebrew로 설치하면 가장 깔끔합니다.
brew install ollama백그라운드 서비스로 실행하거나 포그라운드에서 수동 실행할 수 있습니다.
brew services start ollamaollama serveOllama는 REST API를 http://localhost:11434에 노출합니다. 설치를 확인한 뒤 원하는 Gemma 4 변형을 내려받습니다.
ollama pull gemma4:e4bollama pull gemma4:26b설치된 모델 목록 확인과 간단한 동작 테스트는 다음과 같이 할 수 있습니다.
ollama listollama run gemma4:26b "한 문장으로 자기소개 해줘"첫 다운로드는 모델에 따라 수 GB에서 수십 GB에 이를 수 있으니 네트워크와 디스크 여유를 미리 확보하세요.
5. Step 2 — OpenClaw 설치
OpenClaw는 세 가지 방법으로 설치할 수 있습니다. 가장 간단한 것은 공식 원라이너입니다.
curl -fsSL https://openclaw.ai/install.sh | bashnpm 전역 설치를 선호한다면 아래 명령으로 설치 후 초기화합니다.
npm i -g openclaw
openclaw onboard플러그인 개발을 염두에 둔다면 소스에서 직접 빌드할 수도 있습니다.
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm run build설치가 끝나면 openclaw onboard가 초기 설정을 물어보고, 홈 디렉터리 아래 ~/.openclaw/ 폴더와 설정 파일 ~/.openclaw/openclaw.json을 만듭니다. macOS 사용자는 메뉴바에서 접근할 수 있는 공식 컴패니언 앱(Beta)도 함께 설치해두면 편리합니다.
6. Step 3 — OpenClaw에 Ollama 연결하기
OpenClaw가 Ollama를 기본 프로바이더로 쓰도록 설정 파일을 편집합니다. 편집기는 nano ~/.openclaw/openclaw.json 또는 VS Code로 열면 됩니다.
{
"agents": {
"defaults": {
"model": {
"primary": "ollama/gemma4:26b",
"fallbacks": ["ollama/gemma4:e4b"]
}
}
},
"models": {
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434",
"apiKey": "ollama-local",
"api": "ollama"
}
}
}
}또는 환경 변수 하나만 설정해 암묵적 디스커버리를 쓰는 방법도 있습니다. 이쪽이 더 간단합니다.
export OLLAMA_API_KEY="ollama-local"변경 사항을 반영하려면 source ~/.zshrc를 실행하거나 터미널을 재시작하세요.
Ollama는 OpenAI 호환 엔드포인트
/v1도 제공하지만, 이 경로를 사용하면 툴 콜링이 불안정해져 OpenClaw가 도구를 호출하지 못합니다. 반드시 네이티브 엔드포인트(http://localhost:11434, 경로 접미사 없음)를 써야 합니다. Gemma 4의 뛰어난 τ2-bench 점수를 활용하려면 이 설정이 필수입니다.7. Step 4 — 연동 확인과 트러블슈팅
설정 후 OpenClaw를 한 번 재시작하고 간단한 작업을 시켜봅니다. 예를 들어 "현재 디렉터리의 파일을 리스트해줘"를 요청했을 때 실제로 쉘 명령을 실행하면 툴 콜링이 정상 동작한 것입니다.
문제가 생기면 아래 체크리스트를 순서대로 확인하세요.
- Ollama 프로세스가 떠 있는가 —
ollama serve또는brew services list로 확인 - API가 응답하는가 —
curl http://localhost:11434/api/tags가 모델 목록을 반환해야 함 - 모델이 설치되어 있는가 —
ollama list에gemma4:26b가 보여야 함 - 툴 호출이 JSON 원문으로 찍히는가 —
baseUrl에/v1이 붙어 있을 가능성이 높음. 제거 후 재시작 - 메모리 부족(OOM) — 활성 모니터에서 스왑이 급증하면 더 작은 변형(
gemma4:e4b)으로 교체
8. 실전 팁 — Apple Silicon 최적화
macOS에서 로컬 LLM을 상시 돌릴 때 유용한 팁 몇 가지입니다.
- keep-alive 설정: 환경 변수
OLLAMA_KEEP_ALIVE=30m을 주면 모델이 메모리에 유지되어 응답 지연이 크게 줄어듭니다. - 양자화 선택: 16GB 장비라면 Q4_K_M 양자화 버전을 명시적으로 받으세요. 품질 손실은 미미하고 속도는 월등합니다.
- Metal GPU 가속: 최근 Ollama는 Apple의 Metal 백엔드를 자동으로 사용합니다.
ollama ps로 GPU 점유 여부를 확인할 수 있습니다. - 폴백 모델: 위 설정의
fallbacks처럼 큰 모델이 실패하면 작은 변형으로 자동 전환되게 해두면 안정적입니다. - MoE 활성 파라미터의 이점: 26B MoE는 전체 26B이지만 추론 시에는 3.8B만 활성화되므로, 같은 메모리에서 31B Dense보다 체감 속도가 훨씬 빠릅니다.
9. 마무리
이렇게 연동하면 맥북 한 대에서 메시징 앱·파일 시스템·브라우저까지 제어하는 개인용 AI 에이전트가 완성됩니다. 클라우드 비용은 0원, 데이터는 외부로 나가지 않습니다. Gemma 4는 τ2-bench 86.4%라는 숫자가 보여주듯 로컬 에이전트 시대를 처음으로 실전에 투입할 수 있는 수준으로 끌어올린 모델입니다. 일상적인 자동화와 프라이버시 민감 작업을 Gemma 4에 맡기고, 아주 복잡한 멀티스텝 추론만 상용 모델에 넘기는 하이브리드 전략이 현실적으로 가장 생산성이 높습니다.
참조 링크
- OpenClaw 공식 사이트Peter Steinberger가 만든 오픈소스 개인 AI 어시스턴트. 설치 원라이너와 공식 소개.
- OpenClaw Docs — Ollama ProviderOllama 연동 공식 가이드. baseUrl, apiKey, 모델명 포맷과
/v1경로 주의사항. - Gemma 4 Benchmark — Complete Performance Guide 2026τ2-bench, MMLU Pro, AIME 등 Gemma 4 전 변형의 벤치마크 수치 정리.
- OpenClaw + Gemma 4 Local AI Agent Setup Guide 2026Gemma 4 26B MoE를 OpenClaw에 연결하는 단계별 튜토리얼.
- Gemma 4 Benchmarks — 31B vs 400B GiantsGemma 4가 20배 이상 큰 모델과 경쟁하는 벤치마크 비교 분석.
