MCP_llama

查看源码
2025-5-11
Words 1020Read Time 3 min
Score:85

通过MCP协议集成LLama模型,提供本地文件系统访问和上下文生成服务。

MCP_llama

使用 LLama 的模型上下文协议(Model Context Protocol, MCP)

MCP 文件系统服务器

该服务器为本地文件系统提供了模型上下文协议(MCP)接口,允许 Ollama 访问文件作为生成响应的上下文。

功能

  • 📂 文件系统访问:将本地文件作为上下文提供给语言模型
  • 🧠 MCP 集成:遵循模型上下文协议的结构化上下文
  • 🔄 Ollama 集成:无缝连接 Ollama 的 API
  • 💬 交互模式:在会话中基于文件上下文进行聊天
  • 🌐 RESTful API:提供简单的 HTTP 端点,支持程序化访问

安装

前置条件

  • Python 3.8 或更高版本
  • 已安装并运行 Ollama

设置

  1. 克隆此仓库或复制文件
  1. 安装依赖:

使用

启动服务器

选项:
  • --host:主机地址(默认:127.0.0.1)
  • --port:端口号(默认:8000)
  • --file-limit:最大文件大小(单位:MB,默认:5)
  • --context-limit:最大总上下文大小(单位:MB,默认:10)

使用客户端

客户端提供三种主要操作模式:

1. 列出文件

列出匹配模式的文件:

2. 一次性查询

发送带有文件上下文的查询:
可以使用模式包含多个文件:

3. 交互式会话

启动带有持久化上下文的交互式聊天会话:
在交互模式下,可以使用以下命令:
  • /files add <路径> - 将文件添加到上下文
  • /files clear - 清除文件上下文
  • /files list - 列出当前上下文文件
  • /system <提示> - 设置系统提示
  • /clear - 清除会话历史
  • /exit - 退出会话

API 端点

文件操作

  • POST /files/list - 列出匹配模式的文件
  • POST /files/read - 读取文件内容

MCP 操作

  • POST /mcp/query - 使用 MCP 向 LLM 发送带有文件上下文的查询
  • POST /mcp/raw - 向 Ollama 发送原始 MCP 请求

示例工作流

代码理解

文档分析

技术支持

高级用法

自定义系统提示

使用系统提示来引导模型的行为:

文件模式

使用 glob 模式包含多个文件:

故障排除

  • 文件过大:使用 --file-limit 增加文件大小限制
  • 上下文过大:使用 --context-limit 增加上下文限制,或减少文件数量
  • 连接错误:确保 Ollama 正在运行,并且可通过指定 URL 访问

限制

  • 不支持二进制文件
  • 非常大的文件可能会被截断
  • 总上下文大小受模型最大上下文窗口的限制
上一篇
mcp-styledbook
下一篇
mcp-thought-server