스스로 성장하는 AI 에이전트, 설치부터 실전 활용까지 (OpenClaw 비교 포함)
AI 에이전트를 사용해 본 분이라면 한 번쯤 이런 경험이 있을 것입니다. 오후 내내 Claude Code나 Cursor에게 코드베이스의 구조와 배포 파이프라인, 네이밍 컨벤션을 설명했는데, 세션을 닫는 순간 그 모든 맥락이 사라져 버리는 경험 말입니다. 다음 날 새 세션을 열면 어제의 대화는 흔적도 없이 초기화되어 있고, 같은 설명을 처음부터 다시 시작해야 합니다. 이 "맥락 소실과 반복 설명의 순환"은 AI 기반 개발에서 가장 지속적인 마찰 포인트 중 하나가 되었습니다. 2026년, 이 문제를 근본적으로 해결하려는 두 개의 오픈소스 프로젝트가 등장했습니다. 그중 하나가 바로 Nous Research가 만든 Hermes Agent입니다. "사용할수록 스스로 성장하는 에이전트"라는 슬로건 아래, Hermes Agent는 기존의 세션 기반 AI 도구와는 완전히 다른 접근법을 제시하고 있습니다.
이 글에서는 Hermes Agent가 무엇이고, 기존의 OpenClaw나 Claude Code 같은 도구와 어떻게 다른지를 상세히 비교한 뒤, macOS에서의 설치 과정부터 생활 속 자동화, 코딩 파트너로서의 활용, 대형 클라우드 LLM 및 Ollama 기반 로컬 LLM 연동, OpenClaw에서의 마이그레이션, 그리고 커뮤니티의 실제 활용 사례까지 포괄적으로 다루겠습니다. AI 에이전트에 관심이 있는 일반인부터 초보 개발자, 그리고 OpenClaw에서 이전을 고민하는 분까지 모두 실질적인 가치를 얻으실 수 있도록 구성했습니다.

목 차
1. Hermes Agent란 무엇인가
Nous Research | 오픈소스 AI의 개척자
Hermes Agent를 이해하려면 먼저 이 프로젝트를 만든 Nous Research라는 조직을 알아야 합니다. Nous Research는 2022년 Discord, GitHub, X(구 Twitter) 등 소셜 미디어를 통해 비공식적으로 협업하던 AI 연구자와 엔지니어 그룹에서 출발한 조직입니다. 뉴욕에 본사를 둔 이 연구소는 "사용자가 통제하는 AI"를 만들겠다는 목표 아래, 몇몇 대형 기업에 집중되어 있는 AI 역량을 널리 분산시키는 것을 지향하고 있습니다. 2025년 4월에는 크립토 벤처 캐피탈 Paradigm이 주도한 시리즈 A 라운드를 통해 약 6,500만 달러의 투자를 유치했으며, 토큰 밸류에이션 기준으로 10억 달러 규모의 기업으로 성장했습니다.
Nous Research의 대표 산출물은 Hermes 모델 시리즈입니다. 2023년 중반에 출시된 최초의 Nous-Hermes-13b부터 시작해, Hermes 2, Hermes 3, 그리고 2025년에 출시된 Hermes 4에 이르기까지, 이 모델 시리즈는 Hugging Face에서 3,300만 회 이상 다운로드되며 오픈소스 AI 커뮤니티에서 가장 영향력 있는 파인튜닝 모델 중 하나로 자리 잡았습니다. 특히 Hermes 4는 하이브리드 추론(Hybrid Reasoning) 기능을 도입하여, 모델이 내부적으로 <think>...</think> 태그를 사용해 깊은 사고 과정을 거친 뒤 답변하는 방식을 지원합니다. 이 외에도 Nous Research는 분산 GPU 학습 인프라인 DisTrO, 멀티 에이전트 시뮬레이션 환경(WorldSim, Doomscroll), 그리고 분산 학습 네트워크 Psyche 등을 개발하며 AI 인프라 전반에 걸쳐 연구를 진행하고 있습니다.
에이전트 퍼스트 설계 | Agent-First
Hermes Agent는 이러한 Nous Research의 모든 연구 성과를 하나로 종합한 결과물입니다. 2026년 2월 25일에 v0.1.0으로 최초 릴리스된 이후, 2026년 4월 현재 v2026.4.8까지 빠르게 발전하고 있습니다. 단 6주 만에 GitHub 스타 57,000개 이상을 기록하며, 오픈소스 역사상 가장 빠른 성장세 중 하나를 보여주고 있습니다. MIT 라이선스로 완전한 오픈소스이며, 142명 이상의 기여자가 참여하고 있습니다.
Hermes Agent의 핵심 설계 철학은 "에이전트 퍼스트(Agent-First)"입니다. 대부분의 AI 도구가 채팅 인터페이스나 IDE 위에 에이전트 기능을 덧붙이는 방식인 반면, Hermes Agent는 에이전트 자체의 실행 루프를 시스템의 중심에 놓습니다. 구체적으로 말하면, run_agent.py의 AIAgent 클래스가 핵심 동기 오케스트레이션 엔진으로서 제공자 선택, 프롬프트 구성, 도구 실행, 재시도, 압축, 영속성을 모두 처리하는 하나의 루프를 구동합니다. 이 루프를 중심으로 게이트웨이, 크론 스케줄러, 도구 런타임, ACP(Agent Communication Protocol) 통합, SQLite 기반 세션 영속성, 그리고 강화 학습(RL) 환경이 구조화되어 있습니다.
폐쇄 학습 루프 | Closed Learning Loop
Hermes Agent를 다른 모든 AI 에이전트와 구별짓는 가장 핵심적인 특성은 바로 폐쇄 학습 루프(Closed Learning Loop)입니다. 이것은 단순한 마케팅 문구가 아니라, 구체적인 기술적 메커니즘을 설명하는 표현입니다. 이 루프는 세 가지 구성요소로 작동합니다.
- 첫째, 영속적 메모리(Persistent Memory) 시스템은 FTS5 전문 검색(Full-Text Search)과 LLM 기반 요약을 결합하여, 몇 주 전의 대화에서도 관련 세부 정보를 검색하고 현재 작업에 적용할 수 있습니다. 세션 메모리(현재 대화), 영속 메모리(세션 간 사실과 선호도), 스킬 메모리(학습된 해결 패턴)의 3단계 구조로 운영됩니다.
- 둘째, 자율 스킬 시스템(Autonomous Skill System) 은 Hermes Agent가 복잡한 작업을 완료한 후 자동으로 접근 방식을 재사용 가능한 "스킬" 문서로 저장하는 메커니즘입니다. 스킬은 ~/.hermes/skills/ 디렉토리에 저장되며, 토큰 사용량을 최소화하기 위한 점진적 공개(Progressive Disclosure) 패턴을 따릅니다. Level 0에서는 에이전트가 스킬 이름과 설명만 봅니다(약 3,000 토큰). Level 1에서는 필요할 때 특정 스킬의 전체 내용을 로드합니다. 중요한 점은 스킬이 정적이지 않다는 것입니다. 에이전트가 기존 스킬을 사용하면서 더 나은 접근법을 발견하거나 스킬이 다루지 못하는 엣지 케이스를 만나면, 해당 스킬을 현장에서 업데이트합니다. 시간이 지남에 따라 스킬은 점점 더 견고하고 효율적으로 진화합니다.
- 셋째, Honcho 사용자 모델링 은 변증법적(dialectic) 방식으로 사용자에 대한 이해를 심화시키는 시스템입니다. 에이전트가 사용자와의 상호작용을 통해 "이 사용자는 어떤 방식으로 일하는가", "어떤 도구를 선호하는가", "어떤 코딩 스타일을 사용하는가" 등의 모델을 점진적으로 구축합니다.
graph TD
A["작업 수행<br>(Task Execution)"] --> B["결과 평가<br>(Self-Evaluation)"]
B --> C{"새로운<br>패턴 발견?"}
C -->|"예"| D["스킬 생성/업데이트<br>(Skill Creation)"]
C -->|"아니오"| E["메모리 저장<br>(Memory Persistence)"]
D --> E
E --> F["사용자 모델 갱신<br>(User Modeling)"]
F --> G["다음 작업에 활용<br>(Apply to Next Task)"]
G --> A
style A fill:#4A90D9,stroke:#333,color:#fff
style D fill:#4A90D9,stroke:#333,color:#fff
style F fill:#4A90D9,stroke:#333,color:#fff
[i] 폐쇄 학습 루프(Closed Learning Loop) 란 에이전트가 작업을 수행하고, 그 결과를 평가하여 스킬을 생성하고, 메모리에 저장한 뒤, 다음 작업에서 이를 활용하는 순환 과정을 말합니다. 이 루프가 반복될수록 에이전트는 사용자의 특정 업무에 점점 더 능숙해집니다.
Hermes Agent 핵심 특성 요약
| 특성 | 내용 |
| 개발사 | Nous Research (Hermes, Nomos, Psyche 모델 시리즈 제작, 총 $65M 투자 유치) |
| 라이선스 | MIT (완전 오픈소스, 상업적 사용 가능) |
| 최초 릴리스 | 2026년 2월 25일 (v0.1.0) |
| 현재 버전 | v2026.4.8 (2026년 4월 기준) |
| GitHub 스타 | 57,000+ (6주 만에 달성) |
| 기여자 | 142명 이상, 2,293+ 커밋 |
| 지원 플랫폼 | Linux, macOS, WSL2, Android(Termux) |
| 메시징 채널 | Telegram, Discord, Slack, WhatsApp, Signal, Email, CLI |
| LLM 제공자 | Nous Portal, OpenRouter(200+), Anthropic, OpenAI, Ollama, vLLM, 커스텀 엔드포인트 |
| 내장 도구 | 40개 이상 (파일, 터미널, 웹 검색, 코드 실행, 비전, TTS 등) |
| 메모리 시스템 | 3단계: 세션 메모리 + 영속 메모리(FTS5 검색/LLM 요약) + 스킬 메모리 |
| 스킬 시스템 | 자동 생성, 자기 개선, agentskills.io 오픈 표준 호환 |
| 터미널 백엔드 | Local, Docker, SSH, Daytona, Singularity, Modal (6가지) |
| 핵심 차별점 | 폐쇄 학습 루프 (Closed Learning Loop) — 사용할수록 성장 |
2. Hermes Agent vs OpenClaw | 기존 에이전트와 무엇이 다른가
두 프로젝트의 철학적 분기점
2026년 AI 에이전트 생태계에서 가장 많이 비교되는 두 프로젝트는 Hermes Agent와 OpenClaw입니다. 기능 체크리스트만 놓고 보면 두 프로젝트는 상당히 비슷해 보입니다. 둘 다 오픈소스이고, 셀프 호스팅이 가능하며, 메시징 통합과 메모리, 브라우저 자동화, 스케줄 작업, 멀티 에이전트 워크플로우를 지원합니다. 하지만 체크리스트 너머를 살펴보면, 두 프로젝트는 근본적으로 다른 질문에 답하고 있다는 것을 알 수 있습니다.
가장 정확한 비교 방식은 "어떤 기능이 있는가?"가 아니라 "제품이 무엇을 중심으로 조직되어 있는가?"를 보는 것입니다. Hermes Agent는 학습하는 에이전트 주변에 게이트웨이를 패키징한 것이고, OpenClaw는 메시징 게이트웨이 주변에 에이전트를 패키징한 것입니다.
Hermes의 공식 문서는 도구, 프로필, 체크포인트, 브라우저 제공자, 스킬, 메모리, ACP 에디터 통합, 실행 보안 경계에 많은 에너지를 할애합니다. 이것은 Hermes가 "다양한 플랫폼을 통해 말할 수 있는 자율 에이전트의 런타임"처럼 느껴지게 만듭니다. 반면 OpenClaw의 공식 문서는 게이트웨이가 세션, 라우팅, 채널 연결의 단일 진실 출처(Single Source of Truth)라고 명시합니다. 이것은 OpenClaw를 "범용 에이전트 런타임이라기보다 개인 또는 팀 어시스턴트를 위한 통신 및 라우팅 인프라"처럼 느끼게 합니다.
OpenClaw는 오스트리아 개발자 Peter Steinberger가 2025년 말에 주말 프로젝트로 시작한 것으로, 원래 이름은 Clawdbot이었습니다. 2026년 4월 초 기준 GitHub 스타 345,000개를 넘기며 가장 빠르게 성장한 오픈소스 프로젝트 중 하나가 되었습니다. 2026년 2월에 Steinberger가 OpenAI 합류를 발표하면서 프로젝트는 독립 재단으로 이관되었습니다. OpenClaw의 성장은 우연이 아니었습니다. 개발자들이 오랫동안 기다려온 문제, 즉 "이미 사용 중인 메시징 앱에 연결되는 셀프 호스팅 AI 에이전트"를 해결했기 때문입니다.
메모리 시스템의 근본적 차이
두 프로젝트의 메모리 철학은 정반대의 베팅을 하고 있습니다. OpenClaw의 메모리는 무제한입니다. MEMORY.md와 memory/YYYY-MM-DD.md 형태의 마크다운 파일에 원하는 만큼 저장할 수 있으며, 에이전트는 매 턴마다 전체 메모리를 읽습니다. OpenClaw의 베팅은 "더 많은 컨텍스트 = 더 나은 답변"입니다. 각 어시스턴트가 자체 격리된 저장소를 유지하므로, 지원, 영업, 내부 운영용 어시스턴트를 분리 운영할 때 유용합니다.
Hermes Agent의 메모리는 의도적으로 제한되어 있습니다. MEMORY.md는 2,200자, USER.md는 1,375자로 제한됩니다. Hermes의 베팅은 "제한된 메모리가 통합을 강제하고, 통합이 더 나은 사전 지식(priors)을 만든다"는 것입니다. 대신 이 제한을 FTS5 전문 검색과 LLM 기반 요약으로 보완합니다. 에이전트는 몇 달 전의 대화 기록에서도 관련 세부 정보를 검색하고 적용할 수 있으며, 모델의 컨텍스트 한도를 초과하지 않으면서 긴 히스토리에서 관련 컨텍스트를 추출합니다.
스킬 시스템의 접근법 차이
스킬은 에이전트를 단순한 챗봇에서 실질적인 작업 수행자로 전환시키는 핵심 요소입니다. 이 영역에서 두 프로젝트의 차이는 매우 극명합니다. OpenClaw는 인간이 작성하고 커뮤니티가 공유하는 스킬 생태계를 구축했습니다. ClawHub에는 44,000개 이상의 커뮤니티 스킬이 등록되어 있으며, 워크스페이스, 개인, 공유, 플러그인 등 여러 스코프에서 로드됩니다. 이 접근법의 장점은 풍부한 기존 스킬 라이브러리를 즉시 활용할 수 있다는 것이고, 단점은 에이전트 자체가 새로운 스킬을 학습하지는 않는다는 것입니다.
Hermes Agent의 접근법은 근본적으로 다릅니다. 에이전트가 복잡한 작업을 성공적으로 완료하면, 그 과정에서 학습한 패턴을 자동으로 스킬 파일로 저장합니다. 다음에 유사한 문제를 만나면 자체 스킬 라이브러리를 검색하여 이미 해결한 방법을 재사용합니다. 스킬 사용 중에 더 나은 방법을 발견하면 스킬을 현장에서 업데이트합니다. 이 모든 스킬은 agentskills.io 오픈 표준과 호환되어 커뮤니티 간 공유가 가능합니다. 단, 현재 Hermes의 커뮤니티 스킬 수는 OpenClaw에 비해 훨씬 적은 상태입니다.

플랫폼 지원과 보안
메시징 플랫폼 지원은 OpenClaw가 압도적으로 우세합니다. OpenClaw는 게이트웨이 아키텍처를 통해 Telegram, Discord, WhatsApp, Slack, iMessage, Matrix, IRC, WeChat, Microsoft Teams, Line, Email 등 50개 이상의 플랫폼을 지원합니다. 일본의 LINE, 중국의 WeChat, 기업의 Teams 등 다양한 채널에서 동일한 어시스턴트를 운영해야 하는 팀이라면 OpenClaw이 현실적으로 유일한 선택지입니다. Hermes Agent는 Telegram, Discord, Slack, WhatsApp, Signal, CLI의 6개 플랫폼을 지원하며, Nous Research는 많은 플랫폼에 얕은 통합을 제공하는 대신 적은 플랫폼에 깊은 통합을 제공하는 전략을 명시적으로 취하고 있습니다. 한 가지 주목할 점은 Hermes Agent가 Signal을 네이티브로 지원하는 반면 OpenClaw는 지원하지 않는다는 것입니다.
보안 측면에서는 Hermes Agent가 확실한 우위에 있습니다. 2026년 3월, OpenClaw에서 4일 만에 9건의 CVE가 공개되었으며, 그중 CVE-2026-25253(CVSS 8.8)은 /api/export-auth 엔드포인트에 인증이 없어 네트워크상의 누구라도 저장된 모든 API 토큰(Claude, OpenAI, Google AI 키)을 추출할 수 있는 취약점이었습니다. 보안 연구자들은 82개국에서 135,000개 이상의 공개적으로 접근 가능한 OpenClaw 인스턴스를 발견했습니다. 반면 Hermes Agent는 작성 시점까지 에이전트 관련 CVE가 0건입니다.
Hermes Agent vs OpenClaw 핵심 비교표
| 비교항목 | Hermes Agent | OpenClaw |
| 설계 철학 | 에이전트 퍼스트 (학습 루프 중심) | 게이트웨이 퍼스트 (채널 라우팅 중심) |
| GitHub 스타 | ~57,000 (6주 만에) | ~345,000 (약 5개월) |
| 메모리 방식 | 제한적(2,200자) + FTS5 검색/LLM 요약 | 무제한 Markdown + 매 턴 전체 읽기 |
| 스킬 시스템 | 자동 생성 + 자기 개선 | 인간 작성 44,000+ 커뮤니티 스킬 |
| 메시징 채널 | 6개 + CLI (깊은 통합) | 50개 이상 (넓은 커버리지) |
| 자기 학습 | 핵심 기능 (폐쇄 학습 루프) | 해당 없음 |
| 보안 CVE | 0건 (2026.4 기준) | 9건 (2026.3, CVSS 최대 9.9) |
| 추가 토큰 비용 | +15~25% (자기 정렬/반성 사이클) | 기본 수준 |
| 로컬 모델 | Ollama, vLLM, SGLang, LM Studio, llama.cpp | Ollama 지원 |
| 셀프호스팅 비용 | $5/월~ (VPS) 또는 $0 (로컬) | $5/월~ (관리형 호스팅 옵션 있음) |
| 팀 운영 | 멀티 프로필 기반 개인 중심 | 어시스턴트별 격리 워크스페이스 |
| 연구 기능 | 배치 궤적 생성, Atropos RL, 궤적 압축 | 해당 없음 |
[i] 비용 참고: Hermes Agent의 자기 학습 기능은 공짜가 아닙니다. 반성(reflection)과 최적화 모듈이 추가 토큰을 소비하며, 이는 가벼운 사용에서는 무시할 수 있지만 대규모 사용 시 누적됩니다. Reddit r/openclaw 커뮤니티에서 보고된 API 비용은 경량 모델(Gemini, Qwen) 사용 시 $1~3/일부터 Claude Opus를 집중적으로 사용하는 경우 $131/일까지 다양합니다.
3. 다른 AI 에이전트와의 특성 비교
세션 기반 도구와 영속 에이전트의 분화
2026년 AI 에이전트 생태계는 두 종(species)으로 분화하고 있으며, 대부분의 개발자는 아직 이 변화를 인지하지 못하고 있습니다. 한 종은 터미널, IDE, 또는 브라우저 탭 안에서 살아갑니다. 세션을 열고, 사용하고, 닫으면 끝입니다. Claude Code, Cursor, Codex 같은 도구가 이 범주에 속합니다. 이들은 세션 내에서는 강력하지만, 세션 간 컨텍스트 전달은 제한적입니다. Claude Code가 자동 메모리 기능을 추가하고 Cursor가 워크스페이스 레벨 컨텍스트를 유지하는 등 개선이 이루어지고 있지만, 이것은 세션 기반 도구에 영속성 기능을 "덧붙인" 것입니다.
다른 한 종은 Hermes Agent와 OpenClaw로 대표되는 영속 에이전트(Persistent Agent)입니다. 이들을 인프라 관리 관점에서 비유하자면, 세션 기반 도구는 "재시작할 때마다 초기화되는 상태 없는(stateless) 컨테이너"와 같고, 영속 에이전트는 "영속 볼륨, 장기 실행 프로세스, 그리고 시간이 지남에 따라 시스템을 개선하는 학습 루프를 갖춘 영속 런타임"과 같습니다. 이 전환은 컨테이너화가 서버 관리를 변화시킨 것과 유사한 패러다임 변화를 AI 에이전트 영역에서 일으키고 있습니다.
Hermes Agent의 고유한 포지셔닝
Hermes Agent는 순수한 코딩 에이전트도 아니고, 단순한 챗봇 래퍼도 아닙니다. 오히려 "코딩, 자동화, 리서치, 일상 관리를 아우르는 범용 개인 AI 에이전트"에 가깝습니다. 코딩이 필요할 때는 코딩 파트너로 작동하지만, 뉴스 브리핑을 정리하거나, 이메일을 모니터링하거나, 정해진 시간에 보고서를 생성하는 등의 일상 자동화도 처리합니다. 특히 연구자에게는 배치 궤적 생성, Atropos 강화 학습 환경, 궤적 압축 등의 기능을 통해 차세대 도구 호출 모델을 학습시키는 인프라로도 활용할 수 있습니다. 이것은 Hermes Agent가 단순한 사용자 대면 제품이 아니라, 연구와 실용성을 동시에 추구하는 플랫폼이라는 점을 보여줍니다.
커뮤니티의 합의도 주목할 만합니다. Reddit, X, Discord 전반에서 반복적으로 언급되는 패턴은 이 도구들이 경쟁이 아닌 보완 관계라는 것입니다. 일반적인 최적 구성은 Claude Code를 IDE 기반 코딩에, Hermes Agent를 개인 자동화와 학습에, OpenClaw이나 Slack 네이티브 봇을 팀 전체 운영에 사용하는 것입니다. 더 복잡한 설정에서는 OpenClaw를 멀티 채널 오케스트레이션(계획, 스케줄링, 멀티 에이전트 조정)에 사용하고, Hermes를 집중적인 실행 작업(빠르고 반복적인 루프)에 사용하며, 두 도구가 ACP 프로토콜을 통해 통신하는 구성도 있습니다.
AI 에이전트 생태계 포지셔닝 비교
| 두구 | 유형 | 메모리 | 자기 학습 | 메시징 | 주요 용도 |
| Hermes Agent | 영속 에이전트 | 3단계 (세션/영속/스킬) + FTS5 검색 | 자동 스킬 생성 + 자기 개선 | 6채널 + CLI | 개인 자동화, 학습형 에이전트, 연구 |
| OpenClaw | 영속 어시스턴트 | 무제한 Markdown + 어시스턴트별 격리 | 수동 스킬 (44,000+ 커뮤니티) | 50+ 채널 | 멀티 채널 어시스턴트, 팀 운영 |
| Claude Code | 세션 기반 코딩 | 자동 메모리 (디스크 기록, 제한적) | 없음 | CLI / IDE | 코딩 전문 (터미널 기반) |
| Cursor | IDE 통합 | 워크스페이스 컨텍스트 | 없음 | IDE 내장 | IDE 기반 코딩 |
| Codex CLI | 클라우드 에이전트 | 세션 내 | 없음 | CLI | 자율 코딩 (클라우드 샌드박스) |
4. 사전 준비사항 - 하드웨어 및 소프트웨어
하드웨어 요구사항
Hermes Agent의 하드웨어 요구사항은 사용하려는 LLM 제공 방식에 따라 크게 달라집니다. 클라우드 API(Anthropic, OpenRouter, OpenAI 등)를 사용하는 경우라면, 사실상 어떤 컴퓨터에서든 구동할 수 있습니다. $5짜리 VPS(가상 사설 서버)에서도 문제없이 작동하며, Hermes Agent 자체의 CPU와 메모리 소비는 미미합니다. 에이전트의 실제 연산 부하는 클라우드의 LLM 서버에서 처리되기 때문입니다. 따라서 클라우드 API 방식을 선택한다면, Mac mini, 오래된 노트북, 클라우드 인스턴스 어디에서든 시작할 수 있습니다.
로컬 LLM을 구동하려는 경우에는 GPU 또는 통합 메모리가 충분한 하드웨어가 필요합니다. Apple Silicon Mac을 기준으로, 통합 메모리(Unified Memory) 32GB 이상을 권장합니다. M3 Max는 7B 모델에서 약 50~80 tok/s, 35B급 모델에서 약 35 tok/s의 속도를 보여주며, M3 Ultra는 약 50 tok/s까지 도달합니다. NVIDIA GPU를 사용하는 경우 8~16GB 이상의 VRAM을 권장하며, RTX 4090이 로컬 추론에서 가장 빠른 소비자용 옵션입니다. 절대적인 속도에서는 전용 GPU가 우세하지만, Apple Silicon의 편의성(소음 없음, 통합 시스템, 전력 효율)은 개인 에이전트 운영에 최적화되어 있습니다.
소프트웨어 요구사항
Hermes Agent는 Linux, macOS, WSL2(Windows Subsystem for Linux 2)를 지원합니다. 네이티브 Windows는 지원하지 않으므로, Windows 사용자는 반드시 WSL2를 설치한 후 그 안에서 실행해야 합니다. Android에서는 Termux를 통해 설치할 수 있지만, 음성 관련 종속성이 호환되지 않아 별도의 .[termux] extra가 설치됩니다. 설치 스크립트가 Python 3.11+, Node.js 등 필요한 종속성을 자동으로 처리하므로, 사전에 별도로 설치할 것은 거의 없습니다. 다만 uv(Python 패키지 관리자)와 Python 3.11 이상이 이미 설치되어 있으면 설치 과정이 더 빠르게 진행됩니다.
로컬 LLM을 사용하려면 Ollama, vLLM, LM Studio, SGLang, llama.cpp 서버 중 하나가 필요합니다. 이 중 Ollama가 가장 설치와 사용이 간편하며, Hermes Agent와의 통합도 가장 잘 문서화되어 있습니다. 특히 중요한 것은 Hermes Agent가 최소 64,000 토큰의 컨텍스트 윈도우를 요구한다는 점입니다. 이보다 작은 컨텍스트 윈도우를 가진 모델은 멀티스텝 도구 호출 워크플로우에 필요한 작업 메모리를 유지할 수 없으므로, 시작 시 거부됩니다. 대부분의 호스팅 모델(Claude, GPT, Gemini, Qwen, DeepSeek)은 이 요건을 쉽게 충족합니다. 로컬 모델의 경우 --ctx-size 65536(llama.cpp) 또는 -c 65536(Ollama) 옵션으로 컨텍스트 크기를 설정해야 합니다.
서비스 인프라
LLM 제공자는 Hermes Agent의 "두뇌"에 해당하므로, 최소 하나의 제공자를 구성해야 합니다. 클라우드 API 제공자로는 Nous Portal(자체 모델), OpenRouter(200+ 모델 접근 가능, 단일 API 키), Anthropic(Claude), OpenAI, MiniMax, z.ai/GLM, Kimi/Moonshot 등이 있으며, 로컬 제공자로는 Ollama, vLLM, SGLang, LM Studio 등 OpenAI 호환 API를 제공하는 모든 서버를 사용할 수 있습니다. 메시징 게이트웨이를 사용하려면 해당 플랫폼의 봇 토큰이 필요합니다. Telegram의 경우 @BotFather를 통해 봇을 생성하고 API 토큰을 받아야 합니다. 선택적으로, Docker를 설치하면 에이전트의 명령 실행을 샌드박스 환경에서 격리할 수 있고, Daytona나 Modal을 사용하면 서버리스 영속성(유휴 시 절전, 요청 시 즉시 기동)을 확보할 수 있습니다.
graph TB
subgraph "사용자 환경"
A["macOS / Linux / WSL2"]
B["Hermes Agent<br>CLI / TUI"]
end
subgraph "LLM 제공자"
C["클라우드 API<br>Anthropic, OpenRouter,<br>OpenAI, Nous Portal"]
D["로컬 서버<br>Ollama, vLLM,<br>SGLang, LM Studio"]
end
subgraph "터미널 백엔드"
E["Local"]
F["Docker"]
G["SSH / Daytona / Modal"]
end
subgraph "메시징 게이트웨이"
H["Telegram"]
I["Discord / Slack"]
J["WhatsApp / Signal"]
end
subgraph "데이터 저장소"
K["~/.hermes/<br>SQLite, Skills,<br>Memory, Config"]
end
A --> B
B <--> C
B <--> D
B --> E
B --> F
B --> G
B <--> H
B <--> I
B <--> J
B <--> K
style B fill:#4A90D9,stroke:#333,color:#fff
style K fill:#4A90D9,stroke:#333,color:#fff
사전 준비 체크리스트
다음은 Hermes Agent 설치 전에 확인해야 할 항목들을 정리한 것입니다.
| 구분 | 항목 | 필수 | 비고 |
| 하드웨어 | 인터넷 연결된 macOS/Linux 머신 | 필수 | 클라우드 API 사용 시 |
| Apple Silicon 32GB+ 또는 NVIDIA GPU 8GB+ | 선택 | 로컬 LLM 사용 시 | |
| 소프트웨어 | macOS, Linux, 또는 WSL2 | 필수 | 네이티브 Windows 미지원 |
| Python 3.11+ | 권장 | 설치 스크립트가 자동 처리 | |
| Node.js | 권장 | 설치 스크립트가 자동 처리 | |
| Ollama / vLLM / LM Studio | 선택 | 로컬 LLM 사용 시 | |
| Docker | 선택 | 샌드박스 실행 환경 | |
| 서비스 | LLM API 키 (1개 이상) | 필수 | OpenRouter, Anthropic, OpenAI 등 |
| Telegram Bot 토큰 | 선택 | 메시징 게이트웨이 사용 시 | |
| 64,000+ 토큰 컨텍스트 모델 | 필수 | Hermes Agent 최소 요구사항 |
5. macOS 설치 가이드 | 원라인 설치부터 첫 대화까지
원라인 설치 스크립트
Hermes Agent의 설치는 놀라울 만큼 간단합니다. 터미널을 열고 아래 한 줄의 명령어를 실행하면 됩니다. 이 스크립트가 플랫폼별 설정을 자동으로 처리하므로, 사전 설치가 필요한 것은 거의 없습니다.
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash
설치 스크립트는 시스템 환경을 감지하고 필요한 종속성(Python, Node.js, uv 등)을 확인한 뒤 자동으로 설치합니다. 일반적인 인터넷 연결 환경에서 전체 설치 과정은 약 5분 이내에 완료됩니다. 설치가 완료되면 바로 설정 마법사(Setup Wizard)가 자동으로 시작됩니다. 만약 이전에 OpenClaw를 사용한 적이 있다면, 설치 스크립트가 ~/.openclaw 디렉토리를 자동으로 감지하고 마이그레이션을 제안합니다. 이 부분은 10장 "OpenClaw에서 이사하기"에서 상세히 다루겠습니다.
설정 마법사 단계별 가이드
설치 직후 시작되는 설정 마법사에서는 두 가지 모드를 선택할 수 있습니다. Quick Setup은 제공자, 모델, 메시징만 설정하는 빠른 모드이고, Full Setup은 모든 항목을 세밀하게 설정하는 모드입니다. 대부분의 사용자에게는 Quick Setup이 적합하며, 이후 필요한 항목은 개별 명령어로 변경할 수 있습니다.
How would you like to set up Hermes?
→ Quick setup — provider, model & messaging (recommended)
Full setup — configure everything
Step 1 | LLM 제공자 선택
설정 마법사의 첫 번째이자 가장 중요한 단계는 LLM 제공자를 선택하는 것입니다. Hermes Agent를 구동하는 "두뇌"를 결정하는 과정이며, 언제든지 hermes model 명령어로 변경할 수 있으므로 부담 없이 선택해도 됩니다. 주요 선택지는 다음과 같습니다.
Select your inference provider:
Nous Portal — Nous Research 자체 호스팅 모델
OpenRouter — 200+ 모델 (Claude, GPT-4, Gemini, Llama 등)
Anthropic — Claude 모델 직접 연결
OpenAI — GPT 모델
GitHub Copilot — Copilot 인증 기반
MiniMax — M2.7 모델 네이티브 지원
Custom endpoint — Ollama, vLLM 등 자체 서버
OpenRouter를 선택하면 단일 API 키로 200개 이상의 모델에 접근할 수 있어 가장 유연합니다. Anthropic을 선택하면 Claude 모델을 직접 사용할 수 있으며, 200K 컨텍스트 윈도우가 기본입니다. 로컬 모델을 사용하려면 Custom endpoint를 선택하고 Ollama 서버 URL을 입력합니다(자세한 내용은 9장 참조).
Step 2 | 에이전트 설정
다음으로 에이전트의 동작 방식을 설정합니다. 주요 설정 항목은 다음과 같습니다.
- Max Iterations는 에이전트가 하나의 작업에서 수행할 수 있는 최대 도구 호출 횟수입니다. 기본값은 적절하지만, 긴 작업이 예상되면 60으로 높일 수 있습니다.
- Tool Progress Display는 에이전트가 도구를 실행할 때 진행 상황을 얼마나 보여줄지 결정합니다. "all"로 설정하면 에이전트가 무엇을 하고 있는지 실시간으로 확인할 수 있습니다.
- Context Compression은 대화가 길어져서 모델의 메모리 한계에 가까워졌을 때 오래된 메시지를 요약하는 비율입니다. 기본값 0.5는 메모리 한계의 절반에 도달하면 압축을 시작한다는 의미입니다.
Step 3 | 세션 리셋 정책
Hermes Agent는 대화가 너무 길어지거나 비활성 상태가 지속되면 자동으로 세션을 리셋할 수 있습니다. 리셋 전에 중요한 정보는 자동으로 메모리에 저장됩니다. 권장 설정은 비활성 시간 기반 리셋과 매일 리셋 중 먼저 오는 조건을 적용하는 것입니다. 언제든 직접 /reset 명령어로 수동 리셋도 가능합니다.
Step 4 | 메시징 게이트웨이 (선택)
마지막으로, Telegram이나 Discord 같은 메시징 플랫폼 연결을 설정할 수 있습니다. 이 단계는 선택 사항이며, 나중에 hermes setup gateway로 설정할 수도 있습니다.
Connect a messaging platform? (Telegram, Discord, etc.)
→ Set up messaging now (recommended)
Skip — set up later with 'hermes setup gateway'
기본 명령어 체계
설치와 설정이 완료되면 이제 Hermes Agent를 사용할 준비가 된 것입니다. 터미널에서 hermes를 입력하면 대화형 TUI(Text User Interface)가 시작됩니다. 다음은 일상적으로 사용하게 될 핵심 명령어들입니다.
# === 기본 실행 ===
hermes # 대화형 CLI 시작 (새 세션)
hermes -c # 마지막 세션 이어서 재개
# === 설정 관리 ===
hermes model # LLM 제공자/모델 변경 (인터랙티브)
hermes tools # 활성화할 도구 설정
hermes config set # 개별 설정값 변경
hermes setup # 전체 설정 마법사 재실행
# === 유지보수 ===
hermes update # 최신 버전으로 업데이트
hermes doctor # 환경, 종속성, API 연결 진단
# === 메시징 ===
hermes gateway # 메시징 게이트웨이 관리
hermes gateway setup # 게이트웨이 설정
hermes gateway start # 게이트웨이 시작
# === 마이그레이션 ===
hermes claw migrate # OpenClaw에서 마이그레이션
첫 대화 테스트
hermes를 입력하면 환영 배너가 표시되며 현재 활성 모델, 사용 가능한 도구, 설치된 스킬이 표시됩니다. 간단한 메시지를 입력해 정상 작동을 확인해 보겠습니다.
> 현재 디렉토리에 어떤 파일이 있는지 알려주고, 이 프로젝트가 무엇인지 설명해줘.
Hermes Agent는 내장된 파일 작업, 터미널 명령, 웹 검색 도구를 자율적으로 사용하여 파일 시스템을 탐색하고 컨텍스트와 함께 응답합니다. 상태 바에는 현재 사용 중인 모델명, 사용된 토큰 수, 전체 컨텍스트 윈도우 대비 사용량이 표시됩니다. 대화 중에 사용할 수 있는 주요 슬래시 명령어는 다음과 같습니다.
/reset # 현재 세션 초기화 (메모리에 중요 정보 저장 후)
/model # 대화 중 모델 전환
/compact # 컨텍스트 수동 압축 (토큰 절약)
/memory # 현재 메모리 내용 확인
/skills search # 스킬 검색
/help # 전체 명령어 목록 확인
[i] 안전 기능: Hermes Agent는 잠재적으로 위험한 명령(예: rm -rf, DROP TABLE)을 감지하면 실행 전에 승인을 요청합니다. 이것은 의도된 동작이며, Hermes는 파괴적인 명령을 절대로 무단으로 실행하지 않습니다. 프롬프트에서 정확히 어떤 명령이 실행될지 확인한 후 y를 입력하여 승인하면 됩니다.
6. 생활 속 에이전트 - 일상 자동화 활용
Telegram 봇 연동 | 언제 어디서나 접근
Hermes Agent의 가장 매력적인 활용 방식 중 하나는 메시징 플랫폼을 통해 에이전트에 접근하는 것입니다. 터미널 앞에 앉아 있을 때만 사용할 수 있는 것이 아니라, 출퇴근길에 스마트폰의 Telegram 앱에서 에이전트에게 작업을 지시하고, 에이전트가 클라우드 VM이나 집의 서버에서 작업을 수행한 뒤 결과를 다시 Telegram으로 보내주는 방식입니다. Hermes Agent는 "노트북에 묶이지 않는 에이전트"를 지향하며, 사용자가 잠든 사이에도 작업을 수행할 수 있는 상시 가동(always-on) AI를 목표로 합니다.
Telegram 봇 연동은 다음 세 단계로 설정합니다. 먼저 Telegram에서 @BotFather에게 메시지를 보내 새 봇을 생성하고 API 토큰을 받습니다. 그다음 Hermes Agent의 게이트웨이 설정을 통해 이 토큰을 등록합니다. 마지막으로 게이트웨이를 시작하면 Telegram을 통해 에이전트와 대화할 수 있습니다.
# 1단계: 게이트웨이 설정 (인터랙티브 방식)
hermes gateway setup
# → Telegram 선택 → Bot Token 입력 → 허용 사용자 설정
# 2단계: 게이트웨이 시작
hermes gateway start
# 시스템 서비스로 등록하여 상시 실행 (선택)
# systemd 서비스로 등록하면 서버 재부팅 시에도 자동 시작됩니다
게이트웨이가 시작되면 Telegram에서 봇에게 메시지를 보내는 것만으로 에이전트와 상호작용할 수 있습니다. 접근 제어는 allowlist(특정 사용자 ID만 허용)와 DM 페어링(처음 메시지를 보낸 사용자가 접근 권한을 획득) 방식으로 관리됩니다. 텍스트뿐 아니라 음성 메모 전사, 이미지 전송, 파일 공유도 지원하며, 크로스 플랫폼 대화 연속성 기능 덕분에 CLI에서 시작한 작업의 알림을 Telegram에서 받고, Discord에서 이어서 대화하는 것도 가능합니다.
크론 스케줄러 | 자연어로 자동화하기
Hermes Agent의 내장 크론 스케줄러는 일상 자동화의 핵심입니다. 일반적인 crontab의 복잡한 표현식 대신, 자연어로 스케줄을 설정할 수 있다는 점이 큰 장점입니다. 설정된 작업은 에이전트가 자율적으로 실행하고, 결과를 지정한 메시징 플랫폼으로 전달합니다. 일상 자동화에 활용할 수 있는 대표적인 시나리오들은 다음과 같습니다.
매일 아침 뉴스 브리핑 은 가장 인기 있는 활용 사례 중 하나입니다. 에이전트에게 "매일 아침 8시에 AI 관련 최신 뉴스를 정리해서 Telegram으로 보내줘"라고 지시하면, 에이전트가 웹 검색 도구를 활용해 최신 정보를 수집하고 요약한 뒤 지정된 시간에 전달합니다. 한 사용자(@0xsachi)는 Reddit과 X에서 트렌딩 오픈소스 AI 주제를 자동으로 수집하여 매일 아침 구조화된 리포트로 Telegram에 받아보는 시스템을 약 1시간 만에 설정했다고 보고했습니다.
주간 보고서 자동 생성 도 강력한 활용 사례입니다. 에이전트에게 매주 금요일 오후에 지난 한 주간의 작업 내역을 정리하도록 설정하면, 에이전트가 지난 대화와 작업 기록을 검색하여 자동으로 보고서를 생성합니다.
야간 백업 및 시스템 모니터링 역시 에이전트에게 위임하기 좋은 작업입니다. 서버 상태를 확인하고, 디스크 사용량이 임계치를 넘으면 알림을 보내고, 중요 파일의 백업을 실행하는 등의 반복적인 시스템 관리 작업을 자동화할 수 있습니다.
메모리 시스템의 실생활 가치
Hermes Agent의 메모리 시스템이 실생활에서 제공하는 가장 큰 가치는 "매번 다시 설명하지 않아도 된다"는 것입니다. 일반적인 AI 어시스턴트에게는 매번 "나는 Python을 주로 사용하고, 배포는 Docker로 하고, 서버는 AWS에 있어"라고 설명해야 합니다. Hermes Agent는 이런 정보를 영속 메모리에 저장하고, 이후 대화에서 자동으로 참조합니다. 파운더 시간을 시급 $100으로 환산하면, 하루 두 번 3분씩 재설명하는 시간만으로도 연간 약 $2,500의 비용이 발생한다는 분석도 있습니다. 메모리는 "좋은 기능"이 아니라, 없을 때 비용이 발생하는 핵심 인프라입니다.
에이전트가 기억하는 정보는 단순한 사실 나열에 그치지 않습니다. 프로젝트 구조와 코딩 컨벤션, 선호하는 도구와 라이브러리, 자주 실행하는 배포 파이프라인 명령어, 이전 대화에서 수정 요청한 패턴 등을 종합적으로 기억합니다. 시간이 지남에 따라 에이전트는 사용자의 특정 워크플로우에 점점 더 최적화되며, 처음 설정한 날과 6개월 뒤의 에이전트는 체감할 수 있을 만큼 다른 성능을 보여줍니다.
graph LR
subgraph "입력 채널"
A["CLI 터미널"]
B["Telegram"]
C["Discord"]
D["Slack"]
end
subgraph "Hermes Agent 코어"
E["게이트웨이<br>Gateway"]
F["작업 분배<br>Task Router"]
G["크론 스케줄러<br>Cron"]
end
subgraph "자동화 작업"
H["웹 검색 /<br>정보 수집"]
I["파일 관리 /<br>코드 실행"]
J["보고서 생성 /<br>요약"]
end
subgraph "출력 채널"
K["Telegram 알림"]
L["Discord 메시지"]
M["파일 저장"]
end
A --> E
B --> E
C --> E
D --> E
E --> F
G --> F
F --> H
F --> I
F --> J
H --> K
I --> M
J --> K
J --> L
style E fill:#4A90D9,stroke:#333,color:#fff
style G fill:#4A90D9,stroke:#333,color:#fff
7. 코딩 속 에이전트 | 개발자를 위한 활용
코딩 파트너로서의 Hermes Agent
Hermes Agent를 코딩에 활용할 때 가장 큰 차별점은 "컨텍스트의 영속성"입니다. 일반적인 AI 코딩 어시스턴트는 세션이 바뀔 때마다 프로젝트의 구조, 코딩 스타일, 배포 방식, 데이터베이스 스키마를 다시 설명해야 합니다. Hermes Agent는 이 모든 정보를 영속 메모리에 저장하고, 반복적으로 수행하는 코드 리뷰 패턴이나 디버깅 접근법을 스킬로 자동 저장합니다. 예를 들어, 매주 같은 유형의 풀 리퀘스트를 리뷰하는 개발자라면, Hermes Agent는 몇 주간의 리뷰를 통해 "이 프로젝트의 PR 리뷰 시 체크해야 할 패턴"을 스킬로 학습하고, 이후에는 더 적은 안내로도 정확한 리뷰를 수행합니다.
ACP(Agent Communication Protocol)를 통한 에디터 통합도 지원됩니다. ACP는 외부 도구(코드 에디터 등)가 에이전트와 표준화된 방식으로 통신할 수 있게 해주는 프로토콜입니다. 이를 통해 Hermes Agent를 IDE에서 네이티브하게 사용하는 것과 유사한 경험을 제공받을 수 있습니다. 다만, 현재 시점에서 GUI 도구의 완성도는 Cursor나 Copilot 수준에는 미치지 못하며, hermes-workspace 프로젝트가 이 격차를 좁히기 위해 개발 중입니다.
터미널 백엔드 | 안전한 코드 실행 환경
코딩 에이전트가 실제로 가치를 발휘하려면 코드를 실행할 수 있어야 합니다. 하지만 AI 에이전트에게 로컬 머신의 터미널 접근 권한을 주는 것은 보안상 신중해야 할 문제입니다. Hermes Agent는 이 문제를 6가지 터미널 백엔드로 해결합니다. 기본은 로컬 실행이지만, Docker 격리 환경이나 SSH를 통한 원격 서버에서 실행하도록 설정할 수 있습니다. Daytona와 Modal은 서버리스 영속성을 제공하여, 에이전트의 실행 환경이 유휴 시에는 절전 모드에 들어가고 요청이 오면 즉시 기동됩니다.
# 터미널 백엔드 변경 (기본: local)
hermes config set terminal.backend docker # Docker 컨테이너에서 격리 실행
hermes config set terminal.backend ssh # 원격 서버에서 실행
hermes config set terminal.backend modal # Modal 서버리스 환경
hermes config set terminal.backend daytona # Daytona 워크스페이스
Docker 백엔드를 사용하면 에이전트가 실행하는 모든 터미널 명령이 격리된 컨테이너 안에서 실행되므로, 실수로 호스트 시스템에 영향을 미치는 것을 방지할 수 있습니다. SSH 백엔드는 원격 개발 서버에 에이전트의 실행 환경을 두고 싶을 때 유용합니다. 어떤 백엔드를 사용하든 에이전트의 메모리와 스킬은 로컬 ~/.hermes/ 디렉토리에 저장되므로, 백엔드를 변경해도 에이전트의 학습 내용은 유지됩니다.
실전 코딩 시나리오
- 프로젝트 구조 분석: 새로운 프로젝트에 투입되었을 때, Hermes Agent에게 프로젝트 디렉토리를 분석하게 하면 파일 구조, 사용 언어, 의존성, 설정 파일 등을 종합적으로 파악하고 설명해 줍니다. 이 분석 결과는 메모리에 저장되어 이후 대화에서 참조됩니다.
- 디버깅 파트너: 에러가 발생했을 때 에러 메시지와 관련 코드를 공유하면, 에이전트가 원인을 분석하고 해결책을 제안합니다. 비슷한 유형의 에러를 여러 번 처리하면 에이전트가 해당 에러 패턴을 스킬로 학습하여 점점 빠르게 진단합니다.
- MCP 서버 연동: Hermes Agent는 MCP(Model Context Protocol) 서버에 연결하여 도구 역량을 확장할 수 있습니다. 예를 들어, GitHub MCP 서버를 연결하면 에이전트가 직접 이슈를 생성하거나 PR을 관리할 수 있고, 데이터베이스 MCP를 연결하면 쿼리를 실행하고 스키마를 분석할 수 있습니다. execute_code를 통한 프로그래매틱 도구 호출(Programmatic Tool Calling)은 멀티스텝 파이프라인을 단일 추론 호출로 압축하여, 복잡한 작업을 더 효율적으로 처리합니다.
8. 대형 LLM 모델과의 연동 | Claude, Gemini 등
모델 독립적(Model-Agnostic) 설계
Hermes Agent의 설계 철학 중 하나는 특정 LLM 제공자에 종속되지 않는 것입니다. hermes model 명령어 하나로 제공자와 모델을 전환할 수 있으며, 이 과정에서 코드 변경이 전혀 필요하지 않습니다. 전환 시 Hermes는 base URL과 제공자 정보를 config.yaml에 저장하므로 재시작 후에도 설정이 유지됩니다. 이 설계 덕분에 작업 유형에 따라 최적의 모델을 선택하는 전략이 가능합니다. 복잡한 추론이 필요한 작업에는 Claude Sonnet을 사용하고, 빠른 응답이 필요한 단순 작업에는 경량 모델을 사용하며, 프라이빗한 작업에는 로컬 모델로 전환하는 방식입니다.

주요 클라우드 제공자별 설정
Anthropic (Claude)
Claude를 직접 연결하려면 console.anthropic.com에서 API 키를 발급받은 뒤 설정 마법사에서 Anthropic을 선택합니다. Hermes Agent는 200K 컨텍스트 윈도우를 가진 최신 Claude 모델을 기본으로 사용합니다. Claude는 도구 호출 신뢰도가 높아 별도의 operational guidance가 필요하지 않으므로, Hermes의 시스템 프롬프트에서 자동으로 추가 가이던스를 제외합니다.
hermes model
# → Anthropic 선택
# → API 키 입력
# → 모델 선택 (기본: 최신 Claude 모델, 200K 컨텍스트)
OpenRouter (200+ 모델)
OpenRouter는 단일 API 키로 Claude, GPT-4, Gemini, Llama, Qwen 등 200개 이상의 모델에 접근할 수 있는 통합 게이트웨이입니다. 특정 모델에 종속되지 않으면서도 다양한 모델을 시험해 보고 싶은 사용자에게 가장 유연한 선택지입니다. openrouter.ai에서 가입 후 API 키를 발급받으면 됩니다.
hermes model
# → OpenRouter 선택
# → API 키 입력
# → 모델 선택 (예: anthropic/claude-sonnet, google/gemini-2.5-pro 등)
Google (Gemini/Gemma)
Gemini 또는 Gemma 모델을 사용할 때 Hermes Agent는 자동으로 Google 전용 operational guidance를 시스템 프롬프트에 추가합니다. 이 가이던스는 간결성, 절대 경로 사용, 병렬 도구 호출, 수정 전 확인 패턴 등을 포함하며, 사용자에게는 투명하게 적용됩니다. Claude처럼 이미 도구를 안정적으로 사용하는 모델에는 이 가이던스가 자동으로 제외됩니다.
Nous Portal 및 MiniMax
Nous Portal은 Nous Research 자체 호스팅 모델(Hermes 4 시리즈)에 접근할 수 있는 제공자입니다. MiniMax는 M2.7 모델을 네이티브로 지원하며, Hermes Agent와의 파트너십을 통해 별도의 설정 없이 바로 사용할 수 있습니다. hermes model 명령어에서 MiniMax를 선택하고 Token Plan API 키를 입력하면 됩니다.
폴백 체인(Fallback Chain) 설정
프로덕션 환경에서는 하나의 제공자에만 의존하는 것이 위험할 수 있습니다. Hermes Agent는 순서가 지정된 폴백 제공자 체인을 지원합니다. 주 제공자에 장애가 발생하면 자동으로 다음 제공자로 전환됩니다. 이 설정은 ~/.hermes/config.yaml 파일에서 관리합니다.
# ~/.hermes/config.yaml - 폴백 체인 설정 예시
fallback_providers:
- provider: openrouter
model: anthropic/claude-sonnet
- provider: ollama
model: gemma4
위 설정은 기본적으로 OpenRouter의 Claude Sonnet을 사용하되, OpenRouter에 장애가 발생하면 로컬 Ollama의 Gemma4 모델로 자동 전환합니다. 이렇게 하면 클라우드 서비스 장애 시에도 에이전트가 계속 작동할 수 있어, 크론 작업이나 메시징 게이트웨이의 안정성을 확보할 수 있습니다.
보조 모델 설정 | 컨텍스트 압축
대화가 길어지면 Hermes Agent는 오래된 메시지를 요약하여 컨텍스트를 압축합니다. 이 압축 작업에 사용되는 모델을 별도로 지정할 수 있습니다. 비용이 저렴한 모델을 압축용으로 지정하면 전체 API 비용을 절감할 수 있습니다.
# ~/.hermes/config.yaml - 보조 모델(압축용) 설정
auxiliary:
compression:
model: glm-4.7
base_url: https://api.z.ai/api/coding/paas/v4
[!] 주의: 보조 모델의 컨텍스트 윈도우는 반드시 주 모델의 컨텍스트 윈도우 이상이어야 합니다. 압축기는 대화의 중간 부분 전체를 보조 모델에 보내므로, 보조 모델의 컨텍스트가 더 작으면 컨텍스트 길이 오류가 발생하고, 요약 없이 중간 턴이 삭제되어 대화 컨텍스트가 조용히 손실됩니다.
비용 최적화 팁
AI 에이전트의 가장 큰 비용 요인은 LLM API 사용료이며, 이 비용은 대부분의 사용자가 예상하는 것보다 높습니다. 핵심 원인은 매 메시지가 전체 대화 히스토리를 API에 함께 전송하기 때문에, 세션 내에서 비용이 누적적으로 증가한다는 것입니다. 비용을 최적화하기 위한 전략으로는
- 첫째, 작업 유형별로 모델을 분리하여 복잡한 추론에만 고급 모델을 사용하고 단순 작업에는 경량 모델을 사용하는 것이 효과적입니다.
- 둘째, 세션 리셋을 적절히 활용하여 대화 히스토리가 너무 길어지지 않도록 관리합니다.
- 셋째, 컨텍스트 압축 비율을 조정하여 토큰 소비를 제어합니다.
- 넷째, 반복적인 작업에 로컬 모델을 활용하면 API 비용을 $0으로 줄일 수 있습니다.
9. 로컬 LLM 모델과의 연동 | Ollama 완전 가이드
로컬 LLM의 가치
로컬 LLM을 사용하면 세 가지 핵심적인 이점을 얻을 수 있습니다.
- 첫째, 비용이 $0입니다. API 호출 비용이 전혀 발생하지 않으므로, Hermes Agent의 자기 학습 루프가 추가 토큰을 소비하더라도 재정적 부담이 없습니다. 자기 정렬 사이클로 인한 15~25%의 추가 비용이라는 이슈 자체가 사라지는 것입니다.
- 둘째, 데이터가 외부로 유출되지 않습니다. 모든 추론이 로컬 머신에서 이루어지므로, 민감한 코드나 개인 정보를 다루는 작업에서도 프라이버시가 완전히 보장됩니다.
- 셋째, 오프라인에서도 작동합니다. 인터넷 연결 없이도 에이전트를 사용할 수 있어, 이동 중이거나 네트워크가 불안정한 환경에서도 문제없이 작업을 계속할 수 있습니다.
2026년 4월 기준으로, Hermes 4 모델 패밀리(Qwen 기반 MoE 파인튜닝)는 로컬에서 에이전트 루프를 안정적으로 실행할 수 있는 최초의 오픈 모델로 평가받고 있습니다. 특히 35B A3B 변형은 토큰당 3B 활성 파라미터를 사용하는 Mixture-of-Experts 모델로, 100스텝의 연구 작업에서도 도구 호출 안정성을 유지한다고 보고되고 있습니다. Apple Silicon 32GB+ 환경에서 Q4KM 양자화로 구동할 수 있으며, Claude Sonnet 수준의 약 70% 에이전트 품질을 제공합니다.
Ollama 설치 및 모델 다운로드
Ollama는 로컬 LLM을 가장 간단하게 실행할 수 있는 도구입니다. macOS에서는 아래 명령어로 설치할 수 있으며, Homebrew를 통한 설치도 가능합니다. 설치 후 원하는 모델을 다운로드하면 됩니다.
# Ollama 설치
curl -fsSL https://ollama.com/install.sh | sh
# 추천 모델 다운로드 (용도별 선택)
ollama pull qwen3.5 # 범용 (추론/코딩/비전) - ~11 GB VRAM
ollama pull gemma4 # 범용 - ~16 GB VRAM
ollama pull qwen2.5-coder:32b # 코딩 특화 - ~18 GB VRAM
# Ollama 서버 시작 (기본 포트: 11434)
ollama serve
[i] 모델 선택 기준: Hermes Agent는 최소 64,000 토큰의 컨텍스트 윈도우를 요구합니다. 모델을 선택할 때는 이 요건을 충족하는지 확인해야 합니다. Qwen 3.5, Gemma 4, Qwen 2.5 Coder 등은 이 요건을 충족하는 대표적인 로컬 모델입니다.
Hermes Agent와 Ollama 연동 설정
Ollama가 실행 중인 상태에서 Hermes Agent의 모델 설정을 Ollama로 변경합니다. Hermes는 Ollama 실행을 자동으로 감지하며, 다운로드된 모델 목록도 확인할 수 있습니다.
hermes model
# → "Custom OpenAI-compatible endpoint" 선택
# → API base URL: http://localhost:11434/v1
# → API key: (빈 값 또는 아무 텍스트 — Ollama는 인증 불필요)
# → Model name: qwen3.5:27b
# → Context length: 32768 (서버 설정과 일치시킬 것)
로컬 모델이 하나만 로드되어 있으면 /model custom 명령어로 자동 감지하여 선택할 수도 있습니다. 설정이 완료되면 Hermes는 제공자와 base URL을 config.yaml에 저장하므로 재시작 후에도 설정이 유지됩니다.
# ~/.hermes/config.yaml에 자동 저장되는 Ollama 설정 예시
custom_providers:
- name: "local-ollama"
base_url: "http://localhost:11434/v1"
models:
qwen3.5:27b:
context_length: 32768
컨텍스트 길이 설정 | 가장 흔한 혼동 포인트
Ollama와 Hermes Agent를 연동할 때 가장 많은 사용자가 혼란을 겪는 부분이 바로 컨텍스트 길이 설정입니다. 핵심은 Ollama의 /api/show 엔드포인트가 모델의 최대 컨텍스트를 반환하지만, 실제 사용되는 컨텍스트(num_ctx)와는 다를 수 있다는 점입니다. 또한 OpenAI 호환 API(/v1/chat/completions)를 통해서는 컨텍스트 길이를 설정할 수 없으며, 반드시 서버 측에서 설정해야 합니다.
# 방법 1: 환경 변수로 서버 전체에 적용 (가장 간단)
OLLAMA_CONTEXT_LENGTH=32768 ollama serve
# 방법 2: systemd 서비스로 관리되는 경우
sudo systemctl edit ollama.service
# 다음 내용 추가:
# [Service]
# Environment="OLLAMA_CONTEXT_LENGTH=32768"
sudo systemctl daemon-reload && sudo systemctl restart ollama
# 방법 3: Modelfile로 모델별 영구 설정 (가장 확실)
echo -e "FROM qwen2.5-coder:32b\nPARAMETER num_ctx 32768" > Modelfile
ollama create qwen2.5-coder-32k -f Modelfile
Hermes Agent에서 설정한 컨텍스트 길이와 Ollama 서버의 실제 num_ctx가 일치하는지 반드시 확인해야 합니다. 불일치가 있으면 대화 중반에 컨텍스트 초과 오류가 발생하거나, 예상보다 빨리 컨텍스트 압축이 발동할 수 있습니다.
추천 로컬 모델 가이드
| 모델 | VRAM | 용도 | 특징 |
| Qwen 3.5 27B | ~11 GB | 범용 (추론/코딩/비전) | 균형 잡힌 성능, 시각 이해 지원 |
| Gemma 4 | ~16 GB | 범용 | Google 최신 모델, 다국어 강점 |
| Qwen 2.5 Coder 32B | ~18 GB | 코딩 특화 | 코드 생성 및 디버깅 최적화 |
| Hermes 4 35B A3B | ~20 GB | 에이전트 루프 전용 | MoE 구조, 100스텝 도구 호출 안정성 |
| gpt-oss:20b | ~12 GB | 범용 | Microsoft 오픈 모델 |
| Kimi K2.5 | 클라우드 | 범용 | Ollama 클라우드 모델 지원 |
멀티 에이전트 프로필 | 하나의 머신에서 여러 에이전트 운영
Hermes Agent의 멀티 프로필 기능을 활용하면 하나의 머신에서 용도별로 분리된 여러 에이전트를 동시에 운영할 수 있습니다. 각 프로필은 독립된 메모리, 스킬, 봇, 설정을 가지므로 데이터가 서로 교차 오염되지 않습니다.
# 프로필별 에이전트 실행
hermes --profile cloud # 클라우드 모델 (Claude Sonnet) — 복잡한 추론
hermes --profile coder # 로컬 Qwen (Ollama) — 프라이빗 코딩 작업
hermes --profile research # MiniMax M2.7 — 리서치 전용
실제 활용 패턴을 보면, 클라우드 프로필은 복잡한 추론과 창작에 사용하고, 로컬 프로필은 민감한 코드를 다루는 프라이빗 작업에 사용하며, 리서치 프로필은 웹 검색과 정보 수집 작업에 사용하는 구성이 일반적입니다. 이렇게 하면 데이터 민감도에 따라 클라우드와 로컬을 적절히 분리하면서도, 각 에이전트가 자신의 영역에서 독립적으로 학습하고 성장할 수 있습니다.
로컬 LLM 성능 최적화 팁
Hermes Agent는 로컬 엔드포인트를 자동으로 감지하여 여러 설정을 자동 조정합니다. 소켓 읽기 타임아웃이 120초에서 30분(1,800초)으로 확장되며, 이는 로컬 LLM이 대규모 컨텍스트에서 첫 토큰 생성까지 수 분이 걸릴 수 있기 때문입니다. 또한 스테일 스트림 감지가 비활성화됩니다. 로컬 서버는 프리필(prefill) 중에 keep-alive 핑을 보내지 않기 때문입니다. 만약 자동 조정에도 불구하고 타임아웃이 발생한다면, HERMES_STREAM_READ_TIMEOUT=1800 환경 변수를 명시적으로 설정할 수 있습니다.
10. OpenClaw에서 이사하기 | 마이그레이션 가이드
자동 감지 기반 마이그레이션
OpenClaw를 사용하던 분이라면 Hermes Agent로의 전환이 매우 간단합니다. Hermes Agent를 처음 설치하면, 설치 스크립트가 자동으로 ~/.openclaw 디렉토리를 감지합니다. 디렉토리가 발견되면 설정 마법사가 시작되기 전에 마이그레이션을 제안하며, 여기서 Y를 입력하면 기존 설정, 메모리, 스킬, API 키를 한 번에 가져올 수 있습니다. 설치 시점에 마이그레이션을 건너뛰었더라도, 이후 언제든 hermes claw migrate 명령어로 실행할 수 있습니다.
hermes claw migrate 명령어 체계
마이그레이션 명령어는 여러 옵션을 제공하여 사용자의 필요에 맞게 유연하게 대응합니다. 실제 변경 없이 어떤 항목이 마이그레이션될지 미리 확인하고 싶다면 --dry-run 옵션을 사용하면 됩니다. API 키 같은 시크릿을 제외하고 사용자 데이터만 가져오고 싶다면 --preset user-data 옵션을, 기존 Hermes 설정과 충돌하는 항목을 덮어쓰고 싶다면 --overwrite 옵션을 사용합니다.
# 대화형 마이그레이션 (전체 preset — 설정, 메모리, 스킬, API 키 포함)
hermes claw migrate
# 미리보기 — 실제 변경 없이 마이그레이션 대상만 확인
hermes claw migrate --dry-run
# 시크릿 제외 — 설정, 메모리, 스킬만 가져오기
hermes claw migrate --preset user-data
# 충돌 시 덮어쓰기
hermes claw migrate --overwrite
# 도움말 — 전체 옵션 확인
hermes claw migrate --help
마이그레이션 대상 항목
마이그레이션 과정에서 가져오는 주요 항목은 다음과 같습니다.
- 설정(Config) 에는 LLM 제공자 설정, 에이전트 동작 설정, 게이트웨이 구성 등이 포함됩니다.
- 메모리(Memory) 에는 OpenClaw의 MEMORY.md와 날짜별 메모리 파일이 포함되며, Hermes의 메모리 형식으로 변환됩니다.
- 스킬(Skills) 은 OpenClaw에서 사용하던 커스텀 스킬이 Hermes의 ~/.hermes/skills/ 디렉토리로 복사됩니다.
- API 키(Secrets) 에는 Claude, OpenAI, Google 등의 API 키가 포함됩니다.
openclaw-migration 스킬 활용
명령어 방식 외에도, Hermes Agent 내에서 에이전트가 가이드하는 대화형 마이그레이션을 사용할 수도 있습니다. openclaw-migration 스킬을 사용하면 에이전트가 마이그레이션 과정을 단계별로 안내하며, dry-run 미리보기를 포함한 인터랙티브 경험을 제공합니다. 이 방식은 명령어에 익숙하지 않은 사용자에게 특히 유용합니다.
마이그레이션 체크리스트
마이그레이션 전에 확인해야 할 사항들을 정리했습니다. 먼저 ~/.openclaw 디렉토리를 백업하는 것이 좋습니다. 마이그레이션 자체가 원본 데이터를 삭제하지는 않지만, 만약의 경우를 대비하는 것이 안전합니다. 다음으로, 기존 OpenClaw 커스텀 스킬이 Hermes 형식과 호환되는지 확인합니다. Hermes는 agentskills.io 표준을 사용하므로, OpenClaw의 일부 스킬은 형식 조정이 필요할 수 있습니다. API 키는 마이그레이션 후에도 재설정이 필요한 경우가 있으므로, 주요 API 키를 별도로 메모해 두는 것도 권장합니다. 마지막으로, OpenClaw과 Hermes Agent를 동시에 운영하고 싶다면 커뮤니티 프로젝트 HermesClaw(WeChat 브릿지)를 활용할 수 있습니다.
11. 실제 활용 사례 | 커뮤니티 중심
Hermes Agent가 출시된 지 6주 만에 커뮤니티에서는 80개 이상의 생태계 프로젝트가 만들어졌습니다. 이론적인 가능성이 아니라, 실제로 사용자들이 구축하고 운영하고 있는 사례들을 살펴보겠습니다.
사례 1 | 트렌딩 AI 토픽 자동 모니터링
가장 널리 알려진 활용 사례 중 하나는 @0xsachi가 X(구 Twitter)에 공유한 것으로, Reddit, X 등 주요 플랫폼에서 트렌딩 오픈소스 AI 주제를 자동으로 수집하여 매일 아침 구조화된 리포트로 Telegram에 받아보는 시스템입니다. 설정에 약 1시간이 소요되었다고 보고했으며, Hermes Agent의 크론 스케줄러, 웹 검색 도구, 요약 기능을 조합하여 구현했습니다. 이 패턴은 뉴스 모니터링, 경쟁사 동향 추적, 기술 트렌드 파악 등 다양한 정보 수집 자동화에 응용할 수 있습니다. 특히 n8n 같은 워크플로우 자동화 도구로 구축하던 파이프라인을 Hermes Agent 단독으로 대체할 수 있다는 점에서 의미가 있습니다.
사례 2 | MITRE ATT&CK 보안 스킬 라이브러리
보안 전문가들이 구축한 이 프로젝트는 734개 이상의 보안 스킬을 MITRE ATT&CK 프레임워크에 매핑한 것입니다. 정찰(Reconnaissance), 초기 접근(Initial Access), 실행(Execution), 지속성(Persistence), 권한 상승(Privilege Escalation) 등의 카테고리별로 분류된 스킬을 통해, Hermes Agent를 자율 정찰 및 분석 에이전트로 활용할 수 있습니다. 보안 감사, 취약점 스캐닝, 인시던트 대응 워크플로우 등에서 에이전트가 축적한 보안 지식을 재활용할 수 있어, 반복적인 보안 점검 작업의 효율을 크게 높일 수 있습니다.
사례 3 | hermes-workspace - 웹 기반 통합 GUI
hermes-workspace는 Nous Hackathon 2026에서 개발된 프로젝트로, Hermes Agent의 가장 완성도 높은 GUI 도구입니다. 채팅 인터페이스, 터미널, 메모리 브라우저, 스킬 매니저, 인스펙터를 하나의 웹 기반 워크스페이스에 통합했습니다. 터미널에서만 작업하던 Hermes Agent 경험을 시각적이고 직관적인 환경으로 확장한 것입니다. 다만 Cursor나 Copilot 수준의 폴리시에는 아직 미치지 못한다는 평가도 있으며, 활발하게 개발이 진행 중입니다.
사례 4 | PLUR - 멀티 에이전트 공유 메모리
PLUR(Persistent Long-term Universal Recall) 프로젝트는 Hermes Agent의 메모리 시스템을 한 단계 확장한 것입니다. 뇌과학에서의 "엔그램(engram)"이라는 개념을 차용하여, 여러 Hermes 인스턴스가 에피소드 메모리를 공유할 수 있는 시스템을 구축했습니다. 3~5개의 Hermes 인스턴스를 동시에 운영하는 파워 유저를 위해 설계되었으며, 하나의 에이전트가 학습한 수정사항이나 패턴이 다른 에이전트에게도 전파됩니다. Nous Research Discord에서 한 사용자는 "6개 에이전트 간 공유 에피소드 메모리는 다른 방법으로는 재현하기 어려울 만큼 강력하다"고 평가했습니다.
사례 5 | autonovel - 자율 소설 작성 파이프라인
Hermes Agent의 스킬 자기 개선 기능을 창작 워크플로우에 적용한 프로젝트입니다. 에이전트가 소설의 구조, 캐릭터 일관성, 문체 패턴 등을 스킬로 학습하면서 점진적으로 더 나은 품질의 창작물을 생산합니다. 이 사례는 Hermes Agent가 코딩이나 자동화를 넘어 창작 영역에서도 자기 학습 루프의 가치를 증명할 수 있음을 보여줍니다.
사례 6 | mission-control - 에이전트 함대 관리
3,700개 이상의 GitHub 스타를 기록한 mission-control은 여러 AI 에이전트를 하나의 대시보드에서 관리하는 오픈소스 오케스트레이션 도구입니다. 에이전트 플릿 관리, 작업 디스패치, 비용 추적 기능을 제공하며, 복수의 Hermes 인스턴스를 운영하는 팀이나 파워 유저에게 유용합니다. 개별 에이전트의 상태, 메모리 사용량, 작업 진행률을 실시간으로 모니터링할 수 있습니다.
커뮤니티 생태계 요약
| 프로젝트 | 설명 | 비고 |
| hermes-workspace | 웹 기반 통합 GUI (채팅, 터미널, 메모리, 스킬 매니저) | Hackathon 2026 수상작 |
| mission-control | 에이전트 오케스트레이션 대시보드 | GitHub 3,700+ 스타 |
| awesome-hermes-agent | 커뮤니티 큐레이션 스킬/도구 목록 | 지속적 업데이트 중 |
| HermesHub | 보안 스캔된 스킬 허브 (65+ 위협 규칙, 8개 스캔 카테고리) | 21+ 검증 스킬 |
| PLUR | 멀티 에이전트 공유 에피소드 메모리 시스템 | 엔그램 기반 |
| autonovel | 자율 소설 작성 파이프라인 | 창작 워크플로우 특화 |
| HermesClaw | OpenClaw + Hermes 동시 운영 WeChat 브릿지 | 커뮤니티 기여 |
[!] 스킬 보안 주의: 커뮤니티 스킬을 설치할 때는 반드시 검증된 퍼블리셔의 것만 사용하고, 설치 전에 SKILL.md 파일의 내용을 직접 확인하는 것이 좋습니다. HermesHub는 65개 이상의 위협 규칙으로 보안 스캔을 수행하지만, 외부 스킬의 안전성은 항상 사용자가 최종 검증해야 합니다.
12. 마무리 | 나에게 맞는 선택은?
사용자 유형별 추천
이 글에서 살펴본 내용을 바탕으로, 사용자의 상황에 따른 선택 가이드를 정리하겠습니다. "만능 정답"은 없으며, 자신의 워크플로우에 가장 잘 맞는 도구를 선택하는 것이 핵심입니다.
"반복 작업이 많고, 에이전트가 점점 더 잘해주길 원한다" -> Hermes Agent를 추천합니다. 매주 같은 유형의 코드 리뷰, 정기적인 리서치 보고서, 반복적인 데이터 처리 등 패턴이 있는 작업에서 Hermes의 자기 학습 루프가 진가를 발휘합니다. 시간이 지남에 따라 에이전트가 사용자의 워크플로우를 학습하므로, 장기적으로 투자 대비 효과가 누적됩니다.
"다양한 메시징 채널에서 팀 어시스턴트가 필요하다" -> OpenClaw를 추천합니다. 50개 이상의 플랫폼 지원, 44,000+ 커뮤니티 스킬, 어시스턴트별 격리 워크스페이스는 팀 환경에서의 운영에 최적화되어 있습니다. 관리형 호스팅 옵션을 통해 서버 관리 부담도 줄일 수 있습니다.
"둘 다 필요하다" -> 커뮤니티에서 가장 강력하다고 평가받는 구성은 OpenClaw를 멀티 채널 오케스트레이션(계획, 스케줄링, 멀티 에이전트 조정)에, Hermes를 집중적인 실행 작업(반복적인 루프, 학습이 필요한 작업)에 사용하며, ACP 프로토콜로 두 도구를 연결하는 것입니다.
"코딩에만 집중한다" -> Claude Code를 주 도구로, Hermes Agent를 보조 도구로 사용하는 구성이 일반적입니다. Claude Code는 IDE 기반 코딩에 최적화되어 있고, Hermes는 코드 리뷰 학습, 배포 자동화, 크론 기반 모니터링 등 "코딩 주변의 반복 작업"을 담당합니다.
Hermes Agent의 현재 한계점
어떤 도구든 장점만 있는 것은 아닙니다. Hermes Agent의 현재 한계점을 솔직하게 정리합니다.
- 첫째, Honcho 사용자 모델링이 기본적으로 비활성화 되어 있습니다. "사용할수록 성장하는 에이전트"라는 슬로건을 고려하면, 핵심 학습 기능 중 하나가 수동 활성화가 필요하다는 것은 다소 혼란을 줄 수 있습니다.
- 둘째, GUI 도구가 아직 미성숙 합니다. hermes-workspace가 가장 완성도 높지만, Cursor나 Copilot 수준의 폴리시에는 아직 도달하지 못했습니다.
- 셋째, OpenClaw 대비 스킬/서드파티 통합 생태계가 작습니다. OpenClaw의 44,000+ 스킬과 50+ 플랫폼 지원에 비하면, Hermes의 생태계는 아직 초기 단계입니다.
- 넷째, 자기 평가의 신뢰성 문제가 있습니다. 에이전트가 자동으로 생성한 스킬의 품질에 편차가 있으며, 수동 편집이 덮어써지는 경우도 보고되었습니다.
- 다섯째, 로컬 모델 성능 이슈 로, 일부 사용자는 Hermes를 통해 로컬 모델을 실행할 때 LM Studio 직접 실행 대비 현저히 느린 속도(1~2 tok/s vs 45 tok/s)를 보고했습니다.
미래 전망
Hermes Agent는 AI 에이전트 생태계에서 매우 흥미로운 베팅을 하고 있습니다. OpenClaw가 "사람들이 실제로 일을 하는 에이전트를 원한다"는 것을 증명했다면, Hermes Agent는 "사람들이 기억하는 에이전트를 원한다"는 것을 증명하고 있습니다. 이 두 가지는 같은 문제의 다른 면이며, 장기적으로 AI 에이전트의 가치는 "얼마나 많은 것을 할 수 있는가"와 "얼마나 잘 기억하고 성장하는가"의 교차점에서 결정될 것입니다.
6,500만 달러의 투자를 유치한 연구소가, 실제로 모델을 학습시키는 팀이, 6주 만에 57,000 스타를 기록한 프로젝트를 밀고 있다는 것은 주목할 만합니다. Hermes Agent의 거친 부분은 분명히 존재하지만, 아키텍처 수준에서 아무도 구축하지 않았던 기반(자기 개선 스킬 시스템 + 연구급 RL 인프라)을 갖추고 있습니다. 메모리가 "유용한 AI"와 "잊혀지는 AI"를 구분하는 핵심 기능이 되고 있는 지금, Hermes Agent가 제안하는 "망각 없는 AI"의 비전은 충분히 매력적입니다.
참고 자료
| 출처 | URL |
| GitHub 공식 저장소 | github.com/NousResearch/hermes-agent |
| 공식 문서 | hermes-agent.nousresearch.com/docs |
| Hermes Agent 공식 사이트 | hermes-agent.org |
| AI Providers 문서 | hermes-agent.nousresearch.com/docs/integrations/providers |
| FAQ & Troubleshooting | hermes-agent.nousresearch.com/docs/reference/faq |
| Ollama 통합 가이드 | docs.ollama.com/integrations/hermes |
| The New Stack 비교 기사 | thenewstack.io/persistent-ai-agents-compared |
| Turing Post 분석 | turingpost.com/p/hermes |
| DEV.to 상세 가이드 | dev.to/arshtechpro/hermes-agent |
| Community Projects | hermes-agent.ai/blog/hermes-agent-community-projects |
| Hermes Atlas 리포트 | hermesatlas.com/reports/state-of-hermes-april-2026 |
'AI 활용' 카테고리의 다른 글
| Atomic Hermes - 터미널없이 시작하는 간단한 에이전트 (0) | 2026.04.27 |
|---|---|
| NemoClaw를 라즈베리파이 5에 설치하고 운영하기 (0) | 2026.03.24 |
| NVIDIA - NemoClaw 설치부터 활용까지 (0) | 2026.03.24 |
| 중소기업 AI 도입 심화 분석 - 핵심 성공사례와 업종별 전략 (0) | 2026.03.09 |
| 중소기업을 위한 제조업 AI 도입 사례 - 작은 투자로 큰 변화를 만드는 법 (0) | 2026.03.09 |