小贴士:按下Ctrl+D 或 ⌘+D,一键收藏本站,方便下次快速访问!
MIT License
46
最近更新:24天前

Ollama 的 MCP 服务器

Ollama MCP 服务器

smithery badge

为 Ollama 提供的 MCP (Model Context Protocol) 服务器,可实现 Ollama 本地 LLM 模型与 Claude Desktop 等 MCP 兼容应用间的无缝集成。

功能特性

  • 列出可用的 Ollama 模型
  • 从 Ollama 拉取新模型
  • 使用 Ollama 的聊天 API 与模型对话
  • 获取详细的模型信息
  • 自动端口管理
  • 环境变量配置

先决条件

  • Node.js (v16 或更高版本)
  • npm
  • 已安装并在本地运行的 Ollama

安装

通过 Smithery 安装

通过 Smithery 为 Claude Desktop 自动安装 Ollama MCP 服务器:

bash 复制代码
npx -y @smithery/cli install @rawveg/ollama-mcp --client claude

手动安装

通过 npm 全局安装:

bash 复制代码
npm install -g @rawveg/ollama-mcp

在其他 MCP 应用中安装

要在其他 MCP 兼容应用(如 Cline 或 Claude Desktop)中安装 Ollama MCP 服务器,请将以下配置添加到应用的 MCP 设置文件中:

json 复制代码
{
  "mcpServers": {
    "@rawveg/ollama-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "@rawveg/ollama-mcp"
      ]
    }
  }
}

设置文件的存储位置因应用而异:

  • Claude Desktop:Claude 应用数据目录中的 claude_desktop_config.json
  • Cline:VS Code 全局存储中的 cline_mcp_settings.json

使用说明

启动服务器

直接运行:

bash 复制代码
ollama-mcp

服务器默认在 3456 端口启动。您可以使用 PORT 环境变量指定其他端口:

bash 复制代码
PORT=3457 ollama-mcp

环境变量

  • PORT: 服务器端口(默认:3456)。可直接运行或通过 Smithery 安装时使用:
    bash 复制代码
    # 直接运行时
    PORT=3457 ollama-mcp
    
    # 通过 Smithery 安装时
    PORT=3457 npx -y @smithery/cli install @rawveg/ollama-mcp --client claude
  • OLLAMA_API: Ollama API 端点(默认:http://localhost:11434

API 端点

  • GET /models - 列出可用模型
  • POST /models/pull - 拉取新模型
  • POST /chat - 与模型对话
  • GET /models/:name - 获取模型详情

开发

  1. 克隆仓库:
bash 复制代码
git clone https://github.com/rawveg/ollama-mcp.git
cd ollama-mcp
  1. 安装依赖:
bash 复制代码
npm install
  1. 构建项目:
bash 复制代码
npm run build
  1. 启动服务器:
bash 复制代码
npm start

贡献指南

欢迎贡献代码!请随时提交 Pull Request。

许可证

MIT

相关项目