
Ollama Mcp
连接 Ollama 的本地大语言模型运行器,实现低延迟访问 LLM,同时保障数据隐私与控制权。
概述
Ollama MCP 服务器
🚀 连接 Ollama 与模型上下文协议 (MCP) 的强大桥梁,可将 Ollama 的本地大语言模型能力无缝集成到您的 MCP 驱动应用中。
🌟 功能特性
完整 Ollama 集成
- 全面 API 覆盖:通过简洁的 MCP 接口访问所有核心 Ollama 功能
- OpenAI 兼容聊天:可直接替代 OpenAI 的聊天补全 API
- 本地 LLM 能力:在本地运行 AI 模型,完全掌控数据隐私
核心能力
-
🔄 模型管理
- 从注册中心拉取模型
- 推送模型至注册中心
- 列出可用模型
- 通过 Modelfile 创建自定义模型
- 复制和删除模型
-
🤖 模型执行
- 使用可定制提示运行模型
- 支持系统/用户/助理角色的聊天补全 API
- 可配置参数(温度值、超时设置)
- 支持原始模式获取直接响应
-
🛠 服务器控制
- 启动和管理 Ollama 服务器
- 查看详细模型信息
- 错误处理和超时管理
🚀 快速开始
先决条件
- 系统已安装 Ollama
- 安装 Node.js 和 npm/pnpm
安装步骤
- 安装依赖:
bash
pnpm install
- 构建服务器:
bash
pnpm run build
配置
将服务器添加到您的 MCP 配置中:
针对 Claude Desktop:
MacOS:~/Library/Application Support/Claude/claude_desktop_config.json
Windows:%APPDATA%/Claude/claude_desktop_config.json
json
{
"mcpServers": {
"ollama": {
"command": "node",
"args": ["/path/to/ollama-server/build/index.js"],
"env": {
"OLLAMA_HOST": "http://127.0.0.1:11434" // 可选:自定义 Ollama API 端点
}
}
}
}
🛠 使用示例
拉取并运行模型
typescript
// 拉取模型
await mcp.use_mcp_tool({
server_name: "ollama",
tool_name: "pull",
arguments: {
name: "llama2"
}
});
// 运行模型
await mcp.use_mcp_tool({
server_name: "ollama",
tool_name: "run",
arguments: {
name: "llama2",
prompt: "用简单术语解释量子计算"
}
});
聊天补全 (OpenAI 兼容)
typescript
await mcp.use_mcp_tool({
server_name: "ollama",
tool_name: "chat_completion",
arguments: {
model: "llama2",
messages: [
{
role: "system",
content: "你是一个乐于助人的助手。"
},
{
role: "user",
content: "生命的意义是什么?"
}
],
temperature: 0.7
}
});
创建自定义模型
typescript
await mcp.use_mcp_tool({
server_name: "ollama",
tool_name: "create",
arguments: {
name: "custom-model",
modelfile: "./path/to/Modelfile"
}
});
🔧 高级配置
OLLAMA_HOST
:配置自定义 Ollama API 端点(默认:http://127.0.0.1:11434)- 模型执行的超时设置(默认:60 秒)
- 响应随机性的温度控制(0-2 范围)
🤝 贡献指南
欢迎贡献!您可以:
- 报告错误
- 建议新功能
- 提交拉取请求
📝 许可证
MIT 许可证 - 可自由用于您的项目!
为 MCP 生态系统倾心打造 ❤️