本地文件读取器
STDIOAI模型安全访问本地文件的服务器
AI模型安全访问本地文件的服务器
一个基于 Model Context Protocol (MCP) 的本地文件读取服务器,允许 AI 模型安全地访问本地文件系统。
read_file
- 读取指定文件的内容
list_files
- 列出指定目录中的所有文件
get_file_info
- 获取指定文件的详细信息
npm install mcp-local-file-reader
安装后,可以直接在命令行中运行:
npx mcp-local-file-reader
此时会启动一个 MCP node服务器,监听llm对话。
在windsurf中,不需要手动启动mcp-local-file-reader,只需要配置即可,windsurf会自动启动mcp-local-file-reader(在windsurf的mcp_config.json中配置,点击refresh刷新服务器)。
{ "servers": { "file-tools": { "command": "cmd", "args": [ "/c", "node", "path/to/mcp-local-file-reader/build/index.js" ], "env": { "FILE_TOOLS_API_KEY": "" } } } }
{ "servers": { "file-tools": { "command": "cmd", "args": [ "/c", "npx", "mcp-local-file-reader" ], "env": { "FILE_TOOLS_API_KEY": "" } } } }
点击windsurf对话框的小锤子图标,点击refrsh刷新服务器 官方配置说明:https://docs.codeium.com/windsurf/mcp
按照特定应用的 MCP 集成指南,添加此服务器作为工具提供者。cursor配置与windsurf中的配置类似,vscode的cline会稍微复杂一些。但是本质都是配置mcp.json,可以类似的配置。
安装依赖:
npm install
构建服务器:
npm run build
开发模式(自动重新构建):
npm run watch
使用 MCP Inspector 测试:
npm run inspector
此服务器允许 AI 模型访问本地文件系统,请谨慎使用并确保:
MIT