
Lara Mcp
跨语言的 Lara Translation API 桥梁,用于精确、aware 文本翻译,具备自动语言检测功能。
Lara Translate MCP Server
Lara Translate 的 Model Context Protocol (MCP) 服务器,启用强大的翻译功能,并支持语言检测、上下文感知翻译和翻译记忆。
📚 目录
📖 介绍
MCP是什么?
Model Context Protocol (MCP) 是一种开放标准化的通信协议,允许AI应用程序连接到外部工具、数据源和服务。可以将MCP想象成AI应用程序的USB-C接口——就像USB-C提供了标准化的方式连接设备到各种外围设备一样,MCP为AI模型连接到不同的数据源和工具提供了标准化方式。
Lara Translate MCP Server通过此标准化协议,使AI应用程序能够访问Lara Translate的强大翻译能力。
更多Model Context Protocol的信息请访问: https://modelcontextprotocol.io/
Lara Translate MCP的工作原理
Lara Translate MCP Server实现了Model Context Protocol,为AI应用程序提供无缝的翻译能力。集成流程如下:
- 连接建立:当一个兼容MCP的AI应用程序启动时,它会连接到已配置的MCP服务器,包括Lara Translate MCP Server。
- 工具和资源发现:AI应用程序发现由Lara Translate MCP Server提供的可用翻译工具和资源。
- 请求处理:当检测到翻译需求时:
- AI应用程序格式化一个包含要翻译的文本、语言对和可选上下文的结构化请求。
- MCP服务器验证请求并将其转换为Lara Translate API调用。
- 使用您的凭据安全地将请求发送到Lara Translate的API。
- 翻译与响应:Lara Translate通过高级AI模型处理翻译。
- 结果集成:翻译结果显示给AI应用程序,它可将其纳入到响应中。
这种集成架构允许AI应用程序无需直接实现API即可访问专业的翻译服务,同时保持了您API凭据的安全性,并通过自然语言指令提供调整翻译参数的灵活性。
为什么在LLM中使用Lara?
将Lara与大型语言模型(LLMs)集成,创建了一个显著增强非英语翻译质量的强大协同效应。
为什么通用LLM在翻译中的表现欠佳
尽管大规模语言模型具备广泛的语言能力,但它们常常缺乏特定领域和语言所需的专门知识和最新术语。
Lara在领域方面的优势
Lara通过利用基于数十亿专业翻译段落训练的语言模型(T-LMs)克服这一限制。这些模型提供领域特定的机器翻译,掌握文化细微差别和行业术语,这是普通LLM可能遗漏的内容。其结果是:语境准确且听感流畅的翻译。
专为非英语而设计的优势
Lara聚焦于非英语语言,解决了像GPT-4这类模型的性能差距问题。在如Common Crawl和Wikipedia这样的数据集中,英语占主导地位,导致其他语言的输出质量下降。Lara通过在多语言环境中提高理解、生成和结构调整的质量来缩小这个差距。
更快、更智能的多语言表现
通过将复杂的翻译任务卸载至专业的T-LMs,Lara减少了计算开销并最小化延迟——这是LLM处理非英语输入时的常见问题。它的架构可与LLM并行处理翻译,实现实时高质量输出,同时不牺牲速度或效率。
规模化翻译的成本效益
Lara还降低了在非英语工作流中使用像GPT-4之类模型的成本。由于标记化(以及定价)针对英语优化,使用Lara可以在到达LLM之前完成翻译,这意味着只有翻译后的英语内容会被处理。这提高了成本效益,并支持全球企业在竞争中实现规模化的扩展支持。
🛠 可用工具
翻译工具
translate - 在语言之间翻译文本
输入:
text
(array): 包含要翻译的文本块数组,每个元素包含:text
(string): 文本内容translatable
(boolean): 是否应翻译该块
source
(可选字符串): 源语言代码(例如,'en-EN')target
(字符串): 目标语言代码(例如,'it-IT')context
(可选字符串): 改善翻译质量的额外上下文instructions
(可选字符串[]): 调整翻译行为的指令source_hint
(可选字符串): 用于语言检测的提示
返回值: 维持原结构的翻译后文本块
翻译记忆工具
list_memories - 列出已保存的翻译记忆库
返回值: 包含所有记忆项及其详细信息的数组
create_memory - 创建新的翻译记忆库
输入:
name
(string): 新记忆库名称external_id
(可选字符串): 从MyMemory导入的记忆库ID(例如,'ext_my_[MyMemory ID]')
返回值: 创建的记忆库数据
update_memory - 更新翻译记忆库名称
输入:
id
(string): 要更新的记忆库IDname
(string): 更新后的记忆库名称
返回值: 已更新的记忆库数据
delete_memory - 删除翻译记忆库
输入:
id
(string): 要删除的记忆库ID
返回值: 已删除的记忆库数据
add_translation - 将翻译单元添加到记忆库中
输入:
id
(string | string[]): 添加翻译单元的记忆库ID或ID列表source
(string): 源语言代码target
(string): 目标语言代码sentence
(string): 原始句子translation
(string): 翻译后的句子tuid
(可选字符串): 翻译单元唯一标识符sentence_before
(可选字符串): 上下文中之前的句子sentence_after
(可选字符串): 上下文中之后的句子
返回值: 新增的翻译单元详情
delete_translation - 从记忆库中删除翻译单元
输入:
id
(string): 记忆库IDsource
(string): 源语言代码target
(string): 目标语言代码sentence
(string): 原始句子translation
(string): 翻译后的句子tuid
(可选字符串): 翻译单元唯一标识符sentence_before
(可选字符串): 上下文中之前的句子sentence_after
(可选字符串): 上下文中之后的句子
返回值: 删除的翻译单元详情
import_tmx - 将TMX文件导入记忆库
输入:
id
(string): 要更新的记忆库IDtmx
(file path): 要上传的TMX文件路径gzip
(boolean): 文件是否被压缩(.gz)
返回值: 导入细节
check_import_status - 检查TMX文件导入状态
输入:
id
(string): 导入作业的ID
返回值: 导入细节
🚀 入门指南
📋 需求
- Lara Translate API 凭据
- 获取方法可参考 官方文档
- 支持Model Context Protocol (MCP)的LLM客户端,如 Claude Desktop、Cursors 或 GitHub Copilot
- NPX 或 Docker(根据你选择的安装方法)
🔌 安装
简介
安装过程在所有MCP客户端中都是标准化的。需要手动将配置对象添加到MCP客户的JSON配置文件中。
如果不确定如何将MCP与您的客户端进行配置,请参阅您MCP客户端的官方文档。
Lara Translate MCP支持多种安装方法,包括NPX和Docker。以下是使用NPX作为例子的方法。
安装与配置
第一步:用文本编辑器打开你的客户MCP配置JSON文件,然后复制并粘贴以下片段:
json
{
"mcpServers": {
"lara-translate": {
"command": "npx",
"args": [
"-y",
"@translated/lara-mcp@latest"
],
"env": {
"LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>",
"LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>"
}
}
}
}
第二步:替换 <YOUR_ACCESS_KEY_ID>
和 <YOUR_ACCESS_KEY_SECRET>
为您的Lara Translate API凭据(具体参见 官方文档)。
第三步:重新启动你的MCP客户端。
核实安装
在重新启动您的MCP客户端后,应该能够在可用的MCP列表中看到Lara Translate MCP。
查看已安装MCP的方法因客户端不同而异。请查看您的MCP客户端的文档。
要检测Lara Translate MCP是否正确工作,可以尝试翻译一个简单指令:
text
用Lara将"Hello world"翻译成西班牙语
您的MCP客户端开始生成响应。如果Lara Translate MCP正确安装和配置,客户端将请求操作批准或者显示通知说明正使用Lara Translate。
🧩 安装引擎
选项1: 使用NPX
该选项要求在系统中安装Node.js。
- 将以下内容添加到您的MCP配置文件中:
json
{
"mcpServers": {
"lara-translate": {
"command": "npx",
"args": ["-y", "@translated/lara-mcp@latest"],
"env": {
"LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>",
"LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>"
}
}
}
}
- 替换
<YOUR_ACCESS_KEY_ID>
和<YOUR_ACCESS_KEY_SECRET>
为您实际的Lara API凭据。
选项2: 使用Docker
该选项要求在系统中安装Docker。
- 将以下内容添加到您的MCP配置文件中:
json
{
"mcpServers": {
"lara-translate": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"-e",
"LARA_ACCESS_KEY_ID",
"-e",
"LARA_ACCESS_KEY_SECRET",
"translatednet/lara-mcp:latest"
],
"env": {
"LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>",
"LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>"
}
}
}
}
- 替换
<YOUR_ACCESS_KEY_ID>
和<YOUR_ACCESS_KEY_SECRET>
为您实际的Lara API凭据。
选项3: 从源码构建
使用Node.js
- 克隆仓库:
bash
git clone https://github.com/translated/lara-mcp.git
cd lara-mcp
- 安装依赖项并构建:
bash
# 安装依赖项
pnpm install
# 构建
pnpm run build
- 添加以下内容到你的MCP配置文件:
json
{
"mcpServers": {
"lara-translate": {
"command": "node",
"args": ["<FULL_PATH_TO_PROJECT_FOLDER>/dist/index.js"],
"env": {
"LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>",
"LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>"
}
}
}
}
- 替换:
<FULL_PATH_TO_PROJECT_FOLDER>
为项目的绝对路径<YOUR_ACCESS_KEY_ID>
和<YOUR_ACCESS_KEY_SECRET>
为您的实际API凭据。
构建Docker镜像
- 克隆仓库:
bash
git clone https://github.com/translated/lara-mcp.git
cd lara-mcp
- 构建Docker镜像:
bash
docker build -t lara-mcp .
- 添加以下内容到你的MCP配置文件:
json
{
"mcpServers": {
"lara-translate": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"-e",
"LARA_ACCESS_KEY_ID",
"-e",
"LARA_ACCESS_KEY_SECRET",
"lara-mcp"
],
"env": {
"LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>",
"LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>"
}
}
}
}
- 将
<YOUR_ACCESS_KEY_ID>
和<YOUR_ACCESS_KEY_SECRET>
替换为您的实际凭据。
💻 支持MCP的流行客户端
如需完整的支持MCP客户端及特性列表,请访问 官方MCP客户端页面.
客户端 | 描述 |
---|---|
Claude Desktop | 处理Claude AI的桌面应用 |
Cursor | 以AI为主的代码编辑器 |
Cline for VS Code | 提供AI辅助功能的VS Code扩展 |
GitHub Copilot MCP | 集成GitHub Copilot MCP的VS Code扩展 |
Windsurf | 基于AI的代码编辑器和开发环境 |
🆘 支持
- 关于Lara Translate API存在的问题:联系 Lara 支持团队
- 关于此MCP Server的问题:在 [GitHub] 中开启一个讨论问题 (Issue) (https://github.com/translated/lara-mcp/issues)