Model Context Protocol
STDIOA server and client implementation for LLMs to call external tools via structured protocol.
A server and client implementation for LLMs to call external tools via structured protocol.
MCP-Server 是一个基于 Model Context Protocol (MCP) 的服务端和客户端实现,允许大语言模型(LLM)通过结构化协议调用外部工具完成复杂任务。项目主要包含两部分:MCP服务端和TypeScript实现的客户端。
┌───────────────┐ ┌───────────────┐ ┌───────────────┐
│ 前端应用 │────▶│ MCP 客户端 │────▶│ MCP 服务端 │
└───────────────┘ └───────────────┘ └───────────────┘
△ │ │
│ ▼ ▼
│ ┌───────────────┐ ┌───────────────┐
└───────────│ 大语言模型 │ │ 外部服务 API │
│ (Deepseek) │ │ (天气、GitHub)│
└───────────────┘ └───────────────┘
服务端是工具的提供者,负责注册和执行各种工具。
主要功能:
客户端连接大语言模型API和MCP服务端,负责处理用户查询并协调模型调用和工具调用。
主要功能:
客户端提供了HTTP接口供前端应用调用,支持流式输出和过程可视化。
主要端点:
/sse
: 处理前端查询请求,返回包含思考过程和结果的流式响应客户端实现了白盒过程展示,让用户可以看到:
node dist/src/index.js
node dist/mcp-client-typescript/src/index.js /path/to/server/script.js
POST http://localhost:3000/sse
Content-Type: application/json
{
"query": "北京今天的天气怎么样?"
}
需要在.env
文件中设置以下环境变量:
LLM_API_KEY
: Deepseek API密钥GAODE_KEY
: 高德地图API密钥(用于天气查询)MCP-Server项目提供了一个完整的大语言模型工具调用示例实现,展示了如何通过结构化协议让模型访问外部工具和服务,增强模型的能力边界。通过白盒过程可视化,用户可以更好地理解模型的思考过程和工具调用逻辑。