Một trong những câu hỏi phổ biến nhất khi bắt đầu tìm hiểu Hermes Agent là: “Máy tính tôi có đủ cấu hình không?” hoặc “Tôi cần chuẩn bị gì trước khi cài?”. Thực tế, Hermes Agent được thiết kế để cài và chạy được ngay trên hầu hết các máy tính cá nhân, VPS giá rẻ và thậm chí điện thoại Android — không cần GPU, không cần phần cứng đặc biệt, không cần kiến thức Linux chuyên sâu. Vậy cụ thể cấu hình tối thiểu để chạy Hermes Agent là bao nhiêu?
Tại sao yêu cầu phần cứng của Hermes Agent lại nhẹ?
Hiểu được điều này giúp bạn không lo lắng thừa và cũng biết khi nào thực sự cần phần cứng mạnh hơn.
Hermes Agent về bản chất là một orchestration layer — tức lớp điều phối nằm giữa bạn và model AI. Khi bạn gửi yêu cầu, Hermes xử lý logic agent, gọi API của nhà cung cấp AI, nhận kết quả về, thực thi lệnh terminal nếu cần, rồi trả lại cho bạn. Toàn bộ quá trình tính toán nặng, suy luận của model AI đều diễn ra trên server của nhà cung cấp, không phải trên máy của bạn.

Phần cứng mạnh chỉ thực sự cần thiết trong hai trường hợp: Chạy model AI cục bộ qua Ollama/vLLM hoặc dùng Docker backend song song với nhiều tác vụ nặng cùng lúc. Còn lại, Hermes vẫn chạy tốt trên phần cứng rất phổ thông.
Cấu hình tối thiểu để chạy Hermes Agent
Cấu hình khi cài trên máy tính cá nhân
Hệ điều hành được hỗ trợ
Hermes Agent hỗ trợ Linux, macOS, WSL2 trên Windows và Android qua Termux.
Hệ điều hành Hỗ trợ Ghi chú Linux (Ubuntu, Debian, Arch, Fedora…) ✅ Đầy đủ Môi trường tốt nhất macOS (Intel và Apple Silicon) ✅ Đầy đủ Hỗ trợ cả chip M1/M2/M3/M4 Windows (qua WSL2) ✅ Đầy đủ Cần cài WSL2 trước Android (qua Termux) ✅ Có giới hạn Xem hướng dẫn Termux riêng Windows native ❌ Không hỗ trợ Bắt buộc phải qua WSL2
Phần cứng tối thiểu — Dùng model hosted (Claude, GPT, Gemini…)
Đây là cấu hình phần lớn người dùng cần quan tâm — khi model AI chạy trên server của nhà cung cấp.
Thành phần Tối thiểu Khuyến nghị CPU Bất kỳ CPU 64-bit 2 nhân trở lên RAM 512MB trống 2GB trở lên Ổ đĩa 500MB trống 2GB trở lên Mạng Kết nối internet ổn định Băng thông ≥ 10Mbps GPU Không cần Không cần
Nếu máy tính của bạn đang chạy được trình duyệt web và một vài tab YouTube, cấu hình đó là đủ để chạy Hermes Agent với model hosted.

Phần cứng tối thiểu — Dùng model cục bộ (Ollama, vLLM, llama.cpp)
Khi muốn chạy model AI hoàn toàn trên máy tính của mình, phần cứng trở thành yếu tố quyết định. Tuy nhiên, yêu cầu này đến từ model AI, không phải từ Hermes.
Kích thước model RAM tối thiểu VRAM tối thiểu Ghi chú Model 7B 8GB RAM 6GB VRAM Chạy được trên GPU tầm trung Model 13B 16GB RAM 10GB VRAM Cần GPU khá Model 32B 32GB RAM 20GB VRAM GPU cao cấp hoặc nhiều GPU Model 70B+ 64GB RAM 40GB+ VRAM Cần phần cứng chuyên dụng
Hermes Agent trong trường hợp này vẫn chỉ cần thêm khoảng 300–500MB RAM trên nền những con số trên.
Cấu hình khi cài trên VPS
VPS là môi trường phổ biến nhất để chạy Hermes Agent trong thực tế — đặc biệt khi muốn Hermes hoạt động liên tục 24/7 và kết nối với Telegram hay các nền tảng nhắn tin khác.
Cấu hình VPS tối thiểu — Dùng cá nhân
Một VPS khoảng 200.000đ mỗi tháng là đủ để chạy Hermes Agent ổn định cho mục đích cá nhân.
Thành phần Tối thiểu Khuyến nghị vCPU 1 vCPU 2 vCPU RAM 512MB 1–2GB Ổ đĩa 10GB SSD 20GB SSD Băng thông 100GB/tháng Không giới hạn Hệ điều hành Ubuntu 22.04 LTS Ubuntu 24.04 LTS
Với cấu hình này, Hermes chạy gateway Telegram, xử lý tác vụ định kỳ theo lịch và duy trì kết nối liên tục mà không gặp vấn đề gì.
Cấu hình VPS tối thiểu — Dùng Docker backend
Khi bật Docker backend để sandbox hóa lệnh terminal, Docker daemon chiếm thêm tài nguyên đáng kể.
Thành phần Tối thiểu Khuyến nghị vCPU 1 vCPU 2 vCPU RAM 2GB 4GB Ổ đĩa 20GB SSD 40GB SSD Hệ điều hành Ubuntu 22.04 LTS Ubuntu 24.04 LTS
Lý do cần RAM nhiều hơn: Docker daemon chiếm khoảng 200–300MB RAM khi chạy nền, mỗi container tạm thời thêm 50–150MB tùy image, cộng với Hermes Agent và gateway khoảng 300–500MB — tổng cộng dễ chạm 1GB RAM khi có nhiều tác vụ chạy song song.

Cấu hình VPS tối thiểu — Phục vụ nhiều người dùng
Khi Hermes Agent phục vụ một nhóm người dùng qua Telegram hoặc Slack, nhu cầu tài nguyên tăng tuyến tính.
| Số người dùng đồng thời | RAM khuyến nghị | vCPU khuyến nghị |
|---|---|---|
| 1–3 người | 1GB | 1 vCPU |
| 4–10 người | 2–4GB | 2 vCPU |
| 10–30 người | 4–8GB | 4 vCPU |
| 30+ người | 8GB+ | 4+ vCPU |
👉 Tham khảo các gói VPS giá rẻ cấu hình cao để chạy Hermes Agent tại: https://tino.vn/vps-gia-re
Yêu cầu về model AI
Đây là yêu cầu kỹ thuật quan trọng nhất và cũng là thứ duy nhất có thể khiến Hermes từ chối khởi động dù phần cứng đã đủ.
Context window tối thiểu bắt buộc
Hermes Agent yêu cầu model có ít nhất 64.000 token context. Model với cửa sổ context nhỏ hơn không thể duy trì đủ bộ nhớ làm việc cho các workflow gọi công cụ nhiều bước và sẽ bị từ chối ngay khi khởi động. Việc cài Hermes với model có context window 32K trở xuống sẽ bị báo lỗi ngay từ đầu.
Hầu hết các model hosted như Claude, GPT, Gemini, Qwen, DeepSeek đều đáp ứng yêu cầu 64K context này dễ dàng, ví dụ:
Provider Model Context window Anthropic Claude Sonnet 4.6 200K token Anthropic Claude Opus 4.6 200K token OpenAI GPT-4o 128K token Google Gemini 2.5 Pro 1M token DeepSeek DeepSeek V3 128K token Alibaba Qwen3 72B 128K token
Khi dùng model cục bộ — cần cấu hình thêm
Nếu chạy model local, cần đặt context size ít nhất 64K, ví dụ –ctx-size 65536 cho llama.cpp hoặc -c 65536 cho Ollama. Nhiều model cục bộ mặc định context window rất thấp dù về lý thuyết hỗ trợ cao hơn.
# Ollama — đặt context khi khởi động server
OLLAMA_CONTEXT_LENGTH=65536 ollama serve
# llama.cpp
./llama-server --ctx-size 65536
# vLLM
vllm serve ten-model --max-model-len 65536
Nếu Hermes tự phát hiện context length sai, có thể ghi đè trực tiếp trong config.yaml:
model:
default: "qwen3:8b"
base_url: "http://localhost:11434/v1"
context_length: 65536
Yêu cầu phần mềm
Python
Hermes Agent yêu cầu Python 3.10 trở lên. Script cài đặt tự động xử lý việc này, nhưng nếu muốn kiểm tra trước:
python3 --version
# Cần thấy Python 3.10.x trở lên
Nếu phiên bản thấp hơn, cài thêm:
# Ubuntu/Debian
sudo apt install python3.11 python3.11-venv python3.11-dev
# macOS (qua Homebrew)
brew install python@3.11

uv — Trình quản lý môi trường Python
Hermes dùng uv để quản lý môi trường Python riêng biệt — script cài đặt tự động xử lý phần này bao gồm Python, Node.js, ripgrep và ffmpeg. Bạn không cần cài uv thủ công, nhưng nếu muốn kiểm tra sau khi cài:
uv --version
curl và git
Hai công cụ duy nhất cần có trước khi chạy script cài đặt:
# Ubuntu/Debian
sudo apt install -y curl git
# macOS
brew install curl git
Hầu hết các hệ thống đều đã có sẵn cả hai — chỉ cần kiểm tra nếu đang dùng môi trường tối giản.
Docker (tùy chọn)
Chỉ cần nếu muốn bật Docker backend để sandbox hóa lệnh terminal:
# Kiểm tra Docker đã có chưa
docker --version
# Cài nếu chưa có (Ubuntu)
sudo apt install -y docker.io
sudo systemctl enable --now docker
sudo usermod -aG docker $USER
Node.js (tự động)
Node.js được cài tự động bởi script cài đặt Hermes — không cần cài thủ công. Cần thiết cho một số MCP server và tính năng mở rộng.
Tóm tắt — Checklist trước khi bắt đầu
Máy tính cá nhân
| Yêu cầu | Tối thiểu | Bắt buộc? |
|---|---|---|
| Hệ điều hành | Linux, macOS, hoặc WSL2 | ✅ |
| RAM | 512MB trống | ✅ |
| Ổ đĩa | 500MB trống | ✅ |
| Kết nối internet | Ổn định | ✅ |
| Python | 3.10 trở lên | ✅ Script tự xử lý |
| curl và git | Bất kỳ phiên bản | ✅ |
| API key hoặc OAuth | Ít nhất một provider | ✅ |
| Model ≥ 64K context | Hầu hết model hosted đều đủ | ✅ |
| Docker | Chỉ khi dùng sandbox backend | ❌ Tùy chọn |
| GPU | Chỉ khi chạy model cục bộ | ❌ Tùy chọn |
VPS
| Yêu cầu | Tối thiểu | Khuyến nghị |
|---|---|---|
| Hệ điều hành | Ubuntu 22.04 LTS | Ubuntu 24.04 LTS |
| vCPU | 1 vCPU | 2 vCPU |
| RAM (không Docker) | 512MB | 1GB |
| RAM (có Docker) | 2GB | 4GB |
| Ổ đĩa | 10GB SSD | 20GB SSD |
| Quyền truy cập | SSH với sudo | SSH với sudo |
Các bài viết liên quan:
- Cách cài đặt và sử dụng Hermes Agent trên VPS
- Cách cài đặt Hermes Agent trên máy tính Windows
- Hướng dẫn đổi model LLM cho Hermes Agent
- Hướng dẫn cách thêm skill cho Hermes Agent
- Nên cài đặt Hermes Agent trên máy tính cá nhân hay VPS?
- Hermes Agent 1 tháng tốn bao nhiêu chi phí?
Kết luận
Nhìn lại toàn bộ yêu cầu, điều dễ nhận ra nhất là Hermes Agent được thiết kế để chạy được trên phần cứng rất phổ thông. Một VPS giá rẻ là đủ cho nhu cầu cá nhân và bất kỳ máy tính nào đang chạy được trình duyệt web đều có thể chạy Hermes Agent với model hosted.
Yêu cầu thực sự quan trọng duy nhất cần ghi nhớ là context window tối thiểu 64K token cho model AI — đây là yêu cầu cứng được kiểm tra ngay khi khởi động, không có ngoại lệ. Mọi thứ còn lại như RAM, CPU, ổ đĩa đều có ngưỡng tối thiểu rất thấp và dễ đáp ứng.
Những câu hỏi thường gặp
Máy tính cũ RAM 4GB có chạy được Hermes Agent không?
Hoàn toàn được. Hermes Agent không chạy model AI trực tiếp trên máy của bạn theo mặc định, model AI chạy trên server của nhà cung cấp, Hermes chỉ là agent kết nối đến đó. Với cấu hình 4GB RAM và kết nối internet ổn định, Hermes chạy thoải mái khi dùng model hosted như Claude hay GPT. Chỉ khi muốn chạy model AI cục bộ qua Ollama thì RAM mới trở thành yếu tố giới hạn, lúc đó cần tối thiểu 8GB trở lên tùy kích thước model.
VPS 1GB RAM có đủ để chạy Hermes Agent kèm gateway Telegram không?
Đủ, nhưng vừa khít. Hermes Agent và gateway Telegram cộng lại chiếm khoảng 300–500MB RAM khi hoạt động bình thường, còn lại khoảng 500MB cho hệ điều hành và các tiến trình nền. Nếu định bật thêm Docker backend hoặc phục vụ nhiều người dùng đồng thời, nên nâng lên 2GB RAM để có khoảng đệm an toàn.
Tại sao model AI phải có ít nhất 64K token context? Dùng model nhỏ hơn có được không?
Model với cửa sổ context nhỏ hơn 64K không thể duy trì đủ bộ nhớ làm việc cho các workflow gọi công cụ nhiều bước và sẽ bị từ chối ngay khi khởi động. Lý do kỹ thuật là Hermes cần giữ đồng thời trong context: lịch sử hội thoại, nội dung MEMORY.md và USER.md, danh sách công cụ, kết quả tool call và hướng dẫn của skill đang dùng — tất cả cộng lại dễ vượt 32K token khi xử lý tác vụ phức tạp. May mắn là hầu hết model hosted phổ biến hiện nay đều có context window từ 128K trở lên, nên yêu cầu này gần như không còn là rào cản thực tế.
Hermes Agent có cần GPU không?
Không cần, trừ một trường hợp cụ thể. Khi dùng model hosted qua API, GPU hoàn toàn không cần thiết vì toàn bộ tính toán diễn ra trên server của nhà cung cấp. GPU chỉ cần thiết khi bạn muốn chạy model AI cục bộ qua Ollama, vLLM hay llama.cpp trực tiếp trên máy của mình. Trong trường hợp đó, yêu cầu VRAM tối thiểu là 6GB cho model 7B, 10GB cho model 13B, nhưng đây là yêu cầu đến từ model AI, không phải từ bản thân Hermes Agent.
