Local File Reader
STDIOMCP server for secure local filesystem access by AI models.
MCP server for secure local filesystem access by AI models.
一个基于 Model Context Protocol (MCP) 的本地文件读取服务器,允许 AI 模型安全地访问本地文件系统。
read_file
- 读取指定文件的内容
list_files
- 列出指定目录中的所有文件
get_file_info
- 获取指定文件的详细信息
npm install mcp-local-file-reader
安装后,可以直接在命令行中运行:
npx mcp-local-file-reader
此时会启动一个 MCP node服务器,监听llm对话。
在windsurf中,不需要手动启动mcp-local-file-reader,只需要配置即可,windsurf会自动启动mcp-local-file-reader(在windsurf的mcp_config.json中配置,点击refresh刷新服务器)。
{ "servers": { "file-tools": { "command": "cmd", "args": [ "/c", "node", "path/to/mcp-local-file-reader/build/index.js" ], "env": { "FILE_TOOLS_API_KEY": "" } } } }
{ "servers": { "file-tools": { "command": "cmd", "args": [ "/c", "npx", "mcp-local-file-reader" ], "env": { "FILE_TOOLS_API_KEY": "" } } } }
点击windsurf对话框的小锤子图标,点击refrsh刷新服务器 官方配置说明:https://docs.codeium.com/windsurf/mcp
按照特定应用的 MCP 集成指南,添加此服务器作为工具提供者。cursor配置与windsurf中的配置类似,vscode的cline会稍微复杂一些。但是本质都是配置mcp.json,可以类似的配置。
安装依赖:
npm install
构建服务器:
npm run build
开发模式(自动重新构建):
npm run watch
使用 MCP Inspector 测试:
npm run inspector
此服务器允许 AI 模型访问本地文件系统,请谨慎使用并确保:
MIT