Unified MCP Server
A comprehensive MCP server that integrates Ollama model management with specialized tools for Chinese poetry, history, fashion styling, and Zhouyi divination. It provides a single entry point for 26 diverse tools, allowing users to manage local LLMs and access cultural or utility functions through a unified interface.
README
Unified MCP Server
🚀 一个统一的 MCP 服务器入口,整合了 Ollama、古诗词学习、时尚搭配和会议记录 AI 的所有功能。
重要: 本项目现在只有一个 MCP 服务器入口点。所有独立的服务器实现已被整合。如果您之前使用过独立服务器,请查看 MIGRATION.md。
🌟 特性
完整功能整合
- 26 个工具集成在单一服务器中
- 一次构建,所有功能可用
- 统一配置,只需配置一个 MCP 服务器
- 模块化设计,易于维护和扩展
核心能力
🤖 Ollama 工具 (10个)
- 完整的 Ollama API 集成
- OpenAI 兼容的聊天完成接口
- 模型管理 (pull, push, list, create, copy, remove)
- 本地 LLM 执行
🌸 古诗词学习 (4个)
- 诗词生成 (唐诗、宋词、元曲)
- 诗词解释和赏析
- 诗词接龙
- 古诗词问答
👗 时尚搭配 (4个)
- 穿搭建议
- 配色方案
- 配饰搭配 (包包、鞋子)
- 风格分析
📚 历史知识 (4个)
- 历史人物查询
- 历史事件查询
- 朝代信息查询
- 历史文化查询
☯️ 周易占卜 (4个)
- 起卦并解读 (支持随机、时间、手动起卦)
- 卦象解读 (结合具体问题)
- 卦象详解 (卦辞、象辞、爻辞)
- 周易问答 (周易理论、占卜方法)
🚀 快速开始
前置要求
- Ollama 已安装
- Node.js 和 npm
安装
- 安装依赖:
npm install
- 构建服务器:
npm run build
- 配置 Claude Desktop:
Windows: 编辑 %APPDATA%/Claude/claude_desktop_config.json
macOS: 编辑 ~/Library/Application Support/Claude/claude_desktop_config.json
{
"mcpServers": {
"unified-mcp": {
"command": "wsl",
"args": [
"node",
"~/Ollama-mcp/build/index.js"
],
"env": {
"OLLAMA_HOST": "http://127.0.0.1:11434"
}
}
}
}
注意: 如果项目在 WSL 中,使用
wsl命令。如果在 macOS/Linux 原生环境,直接使用node。
- 重启 Claude Desktop
📚 使用指南
详细使用说明请查看 USAGE_GUIDE.md
快速示例
使用 Ollama
// 列出模型
use_mcp_tool({
server_name: "unified-mcp",
tool_name: "ollama_list"
})
生成古诗词
use_mcp_tool({
server_name: "unified-mcp",
tool_name: "poetry_generate",
arguments: {
theme: "春天",
style: "唐诗"
}
})
获取穿搭建议
use_mcp_tool({
server_name: "unified-mcp",
tool_name: "fashion_outfit_suggestions",
arguments: {
style: "休闲",
occasion: "约会"
}
})
提取会议纪要
use_mcp_tool({
server_name: "unified-mcp",
tool_name: "meeting_extract_summary",
arguments: {
meeting_text: "会议内容..."
}
})
查询历史知识
use_mcp_tool({
server_name: "unified-mcp",
tool_name: "history_person_query",
arguments: {
person_name: "李白"
}
})
📁 项目结构
Ollama-mcp/
├── src/
│ ├── index.ts # 🎯 统一 MCP 服务器入口 (唯一入口)
│ ├── tools/
│ │ ├── ollama.ts # Ollama 工具 (10个)
│ │ ├── chinese-poetry.ts # 古诗词工具 (4个)
│ │ ├── fashion-stylist.ts # 时尚搭配工具 (4个)
│ │ ├── history-knowledge.ts # 历史知识工具 (4个)
│ │ └── zhouyi-divination.ts # 周易占卜工具 (4个)
│ └── data/
│ └── fashion-data.ts # 时尚数据
├── build/ # 构建输出
├── chinese_poetry_app/ # 古诗词 Python/Streamlit 应用
├── fashion_stylist_app/ # 时尚搭配 Python 应用
├── zhouyi_divination/ # 周易占卜 Python 应用
├── package.json
├── tsconfig.json
├── README.md
├── USAGE_GUIDE.md
└── MIGRATION.md # 迁移指南
🛠️ 开发
监听模式
npm run watch
调试
npm run inspector
添加新工具
- 在
src/tools/创建新模块 - 定义工具和处理函数
- 在
src/index.ts中导入并注册 - 重新构建:
npm run build
🔧 高级配置
自定义 Ollama 端点
{
"mcpServers": {
"unified-mcp": {
"env": {
"OLLAMA_HOST": "http://custom-host:11434"
}
}
}
}
Meeting Notes Python 环境
cd meeting_notes_ai
pip install -r requirements.txt
📊 架构优势
| 特性 | 旧架构 (分散) | 新架构 (统一) ✅ |
|---|---|---|
| MCP 服务器数量 | 3 个独立服务器 | 1 个统一服务器 |
| 工具总数 | 18 个 | 26 个 |
| 构建次数 | 3 次 | 1 次 |
| Claude Desktop 配置 | 3 个条目 | 1 个条目 |
| 维护复杂度 | 高 | 低 |
| 代码复用 | 低 | 高 |
| 资源占用 | 3 个进程 | 1 个进程 |
🤝 贡献
欢迎提交 Issue 和 Pull Request!
📄 许可证
MIT License
🙏 致谢
让 AI 工具更简单,更强大! 🚀
Recommended Servers
playwright-mcp
A Model Context Protocol server that enables LLMs to interact with web pages through structured accessibility snapshots without requiring vision models or screenshots.
Magic Component Platform (MCP)
An AI-powered tool that generates modern UI components from natural language descriptions, integrating with popular IDEs to streamline UI development workflow.
Audiense Insights MCP Server
Enables interaction with Audiense Insights accounts via the Model Context Protocol, facilitating the extraction and analysis of marketing insights and audience data including demographics, behavior, and influencer engagement.
VeyraX MCP
Single MCP tool to connect all your favorite tools: Gmail, Calendar and 40 more.
Kagi MCP Server
An MCP server that integrates Kagi search capabilities with Claude AI, enabling Claude to perform real-time web searches when answering questions that require up-to-date information.
graphlit-mcp-server
The Model Context Protocol (MCP) Server enables integration between MCP clients and the Graphlit service. Ingest anything from Slack to Gmail to podcast feeds, in addition to web crawling, into a Graphlit project - and then retrieve relevant contents from the MCP client.
E2B
Using MCP to run code via e2b.
Neon Database
MCP server for interacting with Neon Management API and databases
Exa Search
A Model Context Protocol (MCP) server lets AI assistants like Claude use the Exa AI Search API for web searches. This setup allows AI models to get real-time web information in a safe and controlled way.
Qdrant Server
This repository is an example of how to create a MCP server for Qdrant, a vector search engine.