
Ollama Mcp
Ollama 的 MCP 服务器
概述
Ollama MCP 服务器
为 Ollama 提供的 MCP (Model Context Protocol) 服务器,可实现 Ollama 本地 LLM 模型与 Claude Desktop 等 MCP 兼容应用间的无缝集成。
功能特性
- 列出可用的 Ollama 模型
- 从 Ollama 拉取新模型
- 使用 Ollama 的聊天 API 与模型对话
- 获取详细的模型信息
- 自动端口管理
- 环境变量配置
先决条件
- Node.js (v16 或更高版本)
- npm
- 已安装并在本地运行的 Ollama
安装
通过 Smithery 安装
通过 Smithery 为 Claude Desktop 自动安装 Ollama MCP 服务器:
bash
npx -y @smithery/cli install @rawveg/ollama-mcp --client claude
手动安装
通过 npm 全局安装:
bash
npm install -g @rawveg/ollama-mcp
在其他 MCP 应用中安装
要在其他 MCP 兼容应用(如 Cline 或 Claude Desktop)中安装 Ollama MCP 服务器,请将以下配置添加到应用的 MCP 设置文件中:
json
{
"mcpServers": {
"@rawveg/ollama-mcp": {
"command": "npx",
"args": [
"-y",
"@rawveg/ollama-mcp"
]
}
}
}
设置文件的存储位置因应用而异:
- Claude Desktop:Claude 应用数据目录中的
claude_desktop_config.json
- Cline:VS Code 全局存储中的
cline_mcp_settings.json
使用说明
启动服务器
直接运行:
bash
ollama-mcp
服务器默认在 3456 端口启动。您可以使用 PORT 环境变量指定其他端口:
bash
PORT=3457 ollama-mcp
环境变量
PORT
: 服务器端口(默认:3456)。可直接运行或通过 Smithery 安装时使用:bash# 直接运行时 PORT=3457 ollama-mcp # 通过 Smithery 安装时 PORT=3457 npx -y @smithery/cli install @rawveg/ollama-mcp --client claude
OLLAMA_API
: Ollama API 端点(默认:http://localhost:11434)
API 端点
GET /models
- 列出可用模型POST /models/pull
- 拉取新模型POST /chat
- 与模型对话GET /models/:name
- 获取模型详情
开发
- 克隆仓库:
bash
git clone https://github.com/rawveg/ollama-mcp.git
cd ollama-mcp
- 安装依赖:
bash
npm install
- 构建项目:
bash
npm run build
- 启动服务器:
bash
npm start
贡献指南
欢迎贡献代码!请随时提交 Pull Request。
许可证
MIT