
AI Helper MCP Server
A server that allows AI agents to consult multiple large language models (like Grok, Gemini, Claude, GPT-4o) through Model Context Protocol for assistance and information.
README
AI Helper MCP 服务器
这是一个基于 Model Context Protocol (MCP) 的服务器,允许 AI 代理通过 MCP 协议向其他配置好的大型语言模型(LLM)请求帮助或咨询。
功能特点
- 多模型支持: 内置配置了对多种流行 LLM 的访问(例如 Grok, Gemini, Claude, GPT-4o)。
- 动态工具列表: MCP 服务器会自动列出所有可用的 AI 助手作为独立的工具(例如
ask_grok3
,ask_gemini2_5pro
)。 - 统一接口: 通过标准的 OpenAI 兼容 API 格式与后端 AI 模型交互。
- 对话历史: 维护简单的内存对话历史(最近 5 轮),为每个模型提供上下文。
- 环境配置: 通过环境变量配置后端 API 代理的 URL 和 Key。
系统要求
- Node.js v18.0.0 或更高版本
您可以通过以下命令验证 Node.js 安装:
node --version # 应显示v18.0.0或更高版本
安装步骤
-
克隆或下载本项目代码。
-
进入项目根目录。
-
安装依赖:
npm install
-
构建项目:
npm run build
(注意:
npm install
通常会自动触发npm run build
)
配置说明 (客户端)
此 MCP 服务器本身不读取 .env
文件。您需要在启动此 MCP 服务器的客户端应用程序(例如您的 AI 聊天界面或 MCP 管理工具)中配置以下环境变量:
API_URL
: 指向您的 OpenAI 兼容 API 代理服务器的 基础 URL (例如:http://localhost:3000
)。服务器代码会自动添加/v1/chat/completions
路径。API_KEY
: 用于访问您的 API 代理的密钥 (例如:sk-xxxxxxxx
)。
客户端配置示例 (例如在 VS Code MCP 插件中)
在您的客户端 MCP 服务器配置界面(类似于您截图中的界面):
- 名称: 给这个服务器起个名字,例如
求助AI
。 - 描述: 简要描述,例如
让 AI 去求助别的 AI
。 - 类型: 选择
标准输入/输出 (stdio)
。 - 命令: 输入
node
。 - 参数: 输入指向本项目 编译后 的
index.js
文件的 绝对路径。例如:实际地址\AIHelpAI-MCP\build\index.js
(请根据您的实际路径修改)。 - 环境变量:
- 添加
API_URL
,值为您的 API 代理 URL (例如http://localhost:3000
)。 - 添加
API_KEY
,值为您的 API 密钥 (例如sk-xxxxxxxx
)。
- 添加
保存配置后,客户端应该能够启动并连接到这个 MCP 服务器。
使用方法
配置并启动服务器后,连接到此 MCP 服务器的 AI 代理将看到一系列可用的工具,格式为 ask_<model_key>
,例如:
ask_grok3
ask_gemini2_5pro
ask_claude3_7sonnet
ask_gpt4o
每个工具的描述会说明该 AI 助手的特点和擅长领域。
调用工具时,只需提供一个参数:
prompt
(string, required): 您想向该 AI 助手提出的问题或指令。
服务器将使用配置的 API URL 和 Key,结合内置的模型参数和对话历史,向对应的模型发出请求,并将回复返回给调用方。
开发者工具
您可以使用 MCP Inspector 工具来测试服务器(如果已全局安装或使用 npx):
# 确保设置了 API_URL 和 API_KEY 环境变量
npx @modelcontextprotocol/inspector build/index.js
# 或者,如果全局安装了
mcp-inspector build/index.js
许可证
请参阅项目仓库中的许可证文件。
Recommended Servers
playwright-mcp
A Model Context Protocol server that enables LLMs to interact with web pages through structured accessibility snapshots without requiring vision models or screenshots.
Magic Component Platform (MCP)
An AI-powered tool that generates modern UI components from natural language descriptions, integrating with popular IDEs to streamline UI development workflow.
Audiense Insights MCP Server
Enables interaction with Audiense Insights accounts via the Model Context Protocol, facilitating the extraction and analysis of marketing insights and audience data including demographics, behavior, and influencer engagement.

VeyraX MCP
Single MCP tool to connect all your favorite tools: Gmail, Calendar and 40 more.
graphlit-mcp-server
The Model Context Protocol (MCP) Server enables integration between MCP clients and the Graphlit service. Ingest anything from Slack to Gmail to podcast feeds, in addition to web crawling, into a Graphlit project - and then retrieve relevant contents from the MCP client.
Kagi MCP Server
An MCP server that integrates Kagi search capabilities with Claude AI, enabling Claude to perform real-time web searches when answering questions that require up-to-date information.

E2B
Using MCP to run code via e2b.
Neon Database
MCP server for interacting with Neon Management API and databases
Exa Search
A Model Context Protocol (MCP) server lets AI assistants like Claude use the Exa AI Search API for web searches. This setup allows AI models to get real-time web information in a safe and controlled way.
Qdrant Server
This repository is an example of how to create a MCP server for Qdrant, a vector search engine.