
FullScope
STDIOComprehensive MCP server for content operations with webpage scraping, file reading, and AI-powered summarization
Comprehensive MCP server for content operations with webpage scraping, file reading, and AI-powered summarization
内容总结运营 MCP Server,支持网页抓取、文件读取、内容总结、主题汇总等功能
FullScope-MCP 是一个功能全面的 Model Context Protocol (MCP) 服务器,专门用于内容总结和运营场景。支持以下核心功能:
uvx fullscope-mcp-server
pip install fullscope-mcp-server
git clone https://github.com/yzfly/fullscope-mcp cd fullscope-mcp pip install -e .
在使用之前,需要配置以下环境变量:
# MiniMax API Key(必需) export OPENAI_API_KEY="your-minimax-api-key"
# API 基础 URL(默认使用 MiniMax) export OPENAI_BASE_URL="https://api.minimaxi.com/v1" # 使用的模型(默认 MiniMax-M1) export OPENAI_MODEL="MiniMax-M1" # 输入上下文最大 token 数(默认 120000) export MAX_INPUT_TOKENS="120000" # 输出上下文最大 token 数(默认 8000) export MAX_OUTPUT_TOKENS="8000"
在 Claude Desktop 中使用时,请添加以下配置到 claude_desktop_config.json
:
{ "mcpServers": { "fullscope-mcp": { "command": "uvx", "args": ["fullscope-mcp-server"], "env": { "OPENAI_API_KEY": "your-minimax-api-key-here", "OPENAI_BASE_URL": "https://api.minimaxi.com/v1", "OPENAI_MODEL": "MiniMax-M1", "MAX_INPUT_TOKENS": "900000", "MAX_OUTPUT_TOKENS": "8000" } } } }
或者使用 pip 安装版本:
{ "mcpServers": { "fullscope-mcp": { "command": "python", "args": ["-m", "fullscope_mcp_server"], "env": { "OPENAI_API_KEY": "your-minimax-api-key-here", "OPENAI_BASE_URL": "https://api.minimaxi.com/v1", "OPENAI_MODEL": "MiniMax-M1", "MAX_INPUT_TOKENS": "900000", "MAX_OUTPUT_TOKENS": "8000" } } } }
# 工具名: call_model # 参数: prompt (str) - 要发送给模型的提示词 # 返回: 模型的回答
# 工具名: scrape_webpage # 参数: # - url (str) - 要抓取的网页URL # - save_to_file (bool) - 是否保存内容到txt文件 # 返回: 抓取结果和文件路径(如果保存)
# 工具名: summarize_content # 参数: # - content (str) - 要总结的内容 # - target_ratio (float) - 目标压缩比例,0.1-1.0之间,默认0.2 # 返回: 总结后的内容
# 工具名: summarize_webpage # 参数: # - url (str) - 要抓取和总结的网页URL # - target_ratio (float) - 目标压缩比例,默认0.2 # 返回: 网页内容总结
# 工具名: read_and_summarize_text_file # 参数: # - filepath (str) - 文本文件路径 # - target_ratio (float) - 目标压缩比例,默认0.2 # 返回: 文件内容总结
# 工具名: read_and_summarize_pdf_file # 参数: # - filepath (str) - PDF文件路径 # - target_ratio (float) - 目标压缩比例,默认0.2 # 返回: PDF内容总结
# 工具名: topic_based_summary # 参数: # - content (str) - 资料内容 # - query (str) - 查询的主题或问题 # 返回: 基于主题的相关内容总结(2k字符内)
网页内容总结
请帮我总结这个网页的内容:https://example.com/article
文档总结
请读取并总结这个PDF文件:/path/to/document.pdf
主题分析
基于这段资料内容,帮我分析"人工智能发展趋势"相关的信息
# 设置环境变量 export OPENAI_API_KEY="your-api-key" # 运行服务器 python fullscope_mcp_server.py
fullscope-mcp/
├── src/
│ └── fullscope_mcp_server/
│ ├── __init__.py
│ └── server.py
├── README.md
├── pyproject.toml
└── LICENSE
# 克隆项目 git clone https://github.com/yzfly/fullscope-mcp cd fullscope-mcp # 创建虚拟环境 python -m venv venv source venv/bin/activate # Windows: venv\Scripts\activate # 安装开发依赖 pip install -e ".[dev]" # 运行测试 pytest
# 格式化代码 black src/ isort src/ # 类型检查 mypy src/
本服务器主要针对 MiniMax API 设计,但通过配置 OPENAI_BASE_URL
和相关参数,也可以支持其他兼容 OpenAI API 格式的模型服务:
MiniMax API 支持最大 1,000,192 tokens 的上下文长度,非常适合处理长文档和大量内容的总结任务。
# 安装构建工具 pip install build twine # 构建包 python -m build # 检查包 twine check dist/*
# 上传到 TestPyPI twine upload --repository testpypi dist/* # 从 TestPyPI 安装测试 pip install --index-url https://test.pypi.org/simple/ fullscope-mcp-server
# 上传到 PyPI twine upload dist/*
欢迎提交 Issue 和 Pull Request!
git checkout -b feature/AmazingFeature
)git commit -m 'Add some AmazingFeature'
)git push origin feature/AmazingFeature
)本项目采用 MIT 许可证 - 查看 LICENSE 文件了解详情。
yzfly
A: 访问 MiniMax 开放平台,注册账号后在账户管理-接口密钥中获取。
A: 可以!通过配置 OPENAI_BASE_URL
和 OPENAI_MODEL
环境变量,可以使用任何兼容 OpenAI API 格式的模型服务。
A: 是的,为了性能考虑:
A: 按照上面的配置说明,将配置添加到 claude_desktop_config.json
文件中,重启 Claude Desktop 即可。
如果你觉得这个项目有用,请给个 ⭐ 星!