41
最近更新:3个月前

连接 Ollama 的本地大语言模型运行器,实现低延迟访问 LLM,同时保障数据隐私与控制权。

Ollama MCP 服务器

🚀 连接 Ollama 与模型上下文协议 (MCP) 的强大桥梁,可将 Ollama 的本地大语言模型能力无缝集成到您的 MCP 驱动应用中。

🌟 功能特性

完整 Ollama 集成

  • 全面 API 覆盖:通过简洁的 MCP 接口访问所有核心 Ollama 功能
  • OpenAI 兼容聊天:可直接替代 OpenAI 的聊天补全 API
  • 本地 LLM 能力:在本地运行 AI 模型,完全掌控数据隐私

核心能力

  • 🔄 模型管理

    • 从注册中心拉取模型
    • 推送模型至注册中心
    • 列出可用模型
    • 通过 Modelfile 创建自定义模型
    • 复制和删除模型
  • 🤖 模型执行

    • 使用可定制提示运行模型
    • 支持系统/用户/助理角色的聊天补全 API
    • 可配置参数(温度值、超时设置)
    • 支持原始模式获取直接响应
  • 🛠 服务器控制

    • 启动和管理 Ollama 服务器
    • 查看详细模型信息
    • 错误处理和超时管理

🚀 快速开始

先决条件

  • 系统已安装 Ollama
  • 安装 Node.js 和 npm/pnpm

安装步骤

  1. 安装依赖:
bash 复制代码
pnpm install
  1. 构建服务器:
bash 复制代码
pnpm run build

配置

将服务器添加到您的 MCP 配置中:

针对 Claude Desktop:

MacOS:~/Library/Application Support/Claude/claude_desktop_config.json
Windows:%APPDATA%/Claude/claude_desktop_config.json

json 复制代码
{
  "mcpServers": {
    "ollama": {
      "command": "node",
      "args": ["/path/to/ollama-server/build/index.js"],
      "env": {
        "OLLAMA_HOST": "http://127.0.0.1:11434"  // 可选:自定义 Ollama API 端点
      }
    }
  }
}

🛠 使用示例

拉取并运行模型

typescript 复制代码
// 拉取模型
await mcp.use_mcp_tool({
  server_name: "ollama",
  tool_name: "pull",
  arguments: {
    name: "llama2"
  }
});

// 运行模型
await mcp.use_mcp_tool({
  server_name: "ollama",
  tool_name: "run",
  arguments: {
    name: "llama2",
    prompt: "用简单术语解释量子计算"
  }
});

聊天补全 (OpenAI 兼容)

typescript 复制代码
await mcp.use_mcp_tool({
  server_name: "ollama",
  tool_name: "chat_completion",
  arguments: {
    model: "llama2",
    messages: [
      {
        role: "system",
        content: "你是一个乐于助人的助手。"
      },
      {
        role: "user",
        content: "生命的意义是什么?"
      }
    ],
    temperature: 0.7
  }
});

创建自定义模型

typescript 复制代码
await mcp.use_mcp_tool({
  server_name: "ollama",
  tool_name: "create",
  arguments: {
    name: "custom-model",
    modelfile: "./path/to/Modelfile"
  }
});

🔧 高级配置

  • OLLAMA_HOST:配置自定义 Ollama API 端点(默认:http://127.0.0.1:11434
  • 模型执行的超时设置(默认:60 秒)
  • 响应随机性的温度控制(0-2 范围)

🤝 贡献指南

欢迎贡献!您可以:

  • 报告错误
  • 建议新功能
  • 提交拉取请求

📝 许可证

MIT 许可证 - 可自由用于您的项目!


为 MCP 生态系统倾心打造 ❤️