MCP Agent

轻量级 MCP 智能助理 · 一条命令,即刻上手

🤖 私人助理 💻 编程助手 ✍️ 写作助手 🔗 MCP 协议 ⚡ 小巧轻量
🖥️ Windows 下载 🍎 macOS 下载 🐧 Linux 下载

一、简介

MCP Agent 是一款基于 MCP(Model Context Protocol) 协议的轻量级智能助理。它可以充当你的私人助理编程助手写作助手, 安装非常简单——一条命令 + 一个配置即可搞定。

小巧轻量
单一可执行文件,无需安装运行时
🔌
多 MCP Server
内置 filesystem / time / memory,支持扩展
🤖
任意 OpenAI 格式模型
兼容 GPT-4o、DeepSeek-V3、Qwen 等
🖥️
多终端并发
命令行控制台 + 飞书机器人同时运行
📝
灵活提示词
内联配置或文件引用系统提示词
🌐
网页浏览
通过 Playwright MCP 浏览网页、查天气

软件截图

MCP Agent 私人助理 - 查询天气示例
私人助理 — 查询天气
MCP Agent 编程助手 - 生成排序代码示例
编程助手 — 生成 Javascript 冒泡排序程序
MCP Agent 写作助手示例
写作助手

二、软件下载

提供各平台预编译二进制,下载后直接运行,无需安装任何依赖。

操作系统 架构 下载链接
Windows x86_64 mcp-agent-windows-amd64.exe
macOS x86_64 (Intel) mcp-agent-darwin-amd64
macOS ARM64 (Apple Silicon) mcp-agent-darwin-arm64
Linux x86_64 mcp-agent-linux-amd64
Linux ARM64 mcp-agent-linux-arm64
Windows 推荐使用 PowerShell 或 Git Bash 运行。macOS / Linux 下载后需执行 chmod +x mcp-agent-* 赋予执行权限。

三、快速开始

1

下载

选择对应平台
的可执行文件

2

配置

创建 mcp-agent.toml
填写 API Key 与模型

3

运行

终端执行一条命令
即可开始对话

4

扩展

添加更多 MCP Server
解锁更多能力

# 交互模式(OpenAI)
./mcp-agent \
  --base-url "https://api.openai.com/v1" \
  --api-key "sk-xxx" \
  --model "gpt-4o"

# 交互模式(Ollama)
./mcp-agent \
  --base-url "http://127.0.0.1:11434/v1" \
  --api-key "-" \
  --model "qwen3.5"

四、参数说明

参数获取优先级:命令行参数 > 配置文件 > 环境变量

参数 说明 环境变量
--base-url OpenAI API 基础 URL OPENAI_BASE_URL
--api-key OpenAI API 密钥 OPENAI_API_KEY
--model AI 模型名称 AI_MODEL
--config-file TOML 配置文件路径(默认:mcp-agent.toml
--verbose 启用详细工具调用日志
--version 显示版本信息
--help 显示帮助信息

五、配置文件

MCP Server、系统提示词、终端类型等高级配置均通过 TOML 配置文件管理。

配置文件查找顺序:

  1. --config-file 指定的路径
  2. 当前目录下的 mcp-agent.toml
  3. ~/.mcp-agent/mcp-agent.toml

5.1 LLM 配置

支持任何兼容 OpenAI 格式的大模型,包括 DeepSeek-V3、Qwen、GPT-4o 等在线服务, 也可通过 Ollama 在本地运行开源模型。

[llm]

# OpenAI
# base_url = "https://api.openai.com/v1"
# api_key  = "sk-xxx"
# model    = "gpt-4o"

# Ollama(本地部署)
base_url = "http://127.0.0.1:11434/v1"  # 默认值,适用于本地 Ollama
api_key  = "-"                           # 本地模型可使用 "-"
model    = "qwen3.5"
使用 Ollama 本地部署:先 下载 Ollama,再执行 ollama pull qwen3.5 拉取模型。

5.2 系统提示词

[prompt]

# 内联提示词(优先于文件)
system = """
你是用户的私人助理,请按用户指示进行回复,语言尽可能精简。
调用危险工具(如:删除)一定要请示用户,得到肯定后才执行。
当你要完成复杂任务,请先拆解成几个子任务,分而治之。
"""

# 或从文件加载
# file = "system-prompt.txt"

六、MCP Server 配置

内置 MCP Server 有:filesystemtimeskillmemory。未配置时默认全部启用。

📁 filesystem

文件系统读写操作,支持限定允许/拒绝的工具,可指定可访问目录

🕐 time

获取当前时间、时区信息等

🎯 skill

技能指南,教 AI 如何完成特定任务

🧠 memory

记忆存储,记录用户信息或日记,可自定义存储目录

🌐 playwright

浏览器自动化,浏览网页、查天气、搜索新闻,需安装 Node.js

🐳 mcp-sandbox

隔离的 Docker 环境,安全运行 Node.js 代码

[[mcp.servers]]
name        = "filesystem"
description = "文件系统读取操作等"
endpoint    = "filesystem"
# args = ['D:\', 'E:\']          # 默认为当前目录
# allowed_tools = ["read_file", "write_file"]
# denied_tools  = ["delete_file"]

[[mcp.servers]]
name        = "time"
description = "获取当前时间,时区信息等"
endpoint    = "time"

[[mcp.servers]]
name="skill"
description="技能指南,可以学习如何做事情"
endpoint = 'skill' # 后面可以 多个 skills目录,不填默认为 当前目录的skills 或 ~/.mcp-agent/skills

[[mcp.servers]]
name        = "memory"
description = "记忆存储,记录用户信息或日记"
endpoint    = "memory"
# args = ['D:\my-memories']       # 自定义存储目录

需要 Node.js v24.14.0 LTS 以及 Microsoft EdgeFirefox

[[mcp.servers]]
name = "playwright"
description = """
常用网址:
天气 https://tianqi.qq.com/
新闻 https://www.msn.cn/zh-cn/...
搜索引擎 https://cn.bing.com/search?q=%s
"""
endpoint = "npx -y @playwright/mcp@latest --browser=msedge"
# endpoint = "npx -y @playwright/mcp@latest --browser=firefox"
# endpoint = "npx -y @playwright/mcp@latest --browser=msedge --headless"

需要Docker安装 mcp-sandbox.zip

[[mcp.servers]]

name="mcp-sandbox"
description="隔离的alpine linux docker环境,安装好了 nodejs(v20.15.1) npm(v10.9.1),可以运行JavaScript代码"
endpoint="http://docker_server_ip:18080/mcp"

七、终端配置

支持多终端并发运行,可同时在命令行和飞书机器人中使用同一个 Agent。

7.1 命令行终端(默认)

[[terminals]]
type = "console"

7.2 飞书机器人

需申请 飞书应用,获取 app_idapp_secret

[[terminals]]
type         = "feishu"
app_id       = "cli_xxxxxxxxxx"
app_secret   = "your_app_secret"
user_open_id = "ou_xxxxxxxxxx"   # 可选,限定特定用户
飞书应用需开启以 im: 开头的消息相关权限,事件配置选择长连接,并订阅 im.message.receive_v1 等消息事件。

八、完整配置示例

完整的配置文件示例请参考: mcp-agent.example.toml