https://mmbench.opencompass.org.cn/leaderboard 是 MMBench 的官方排行榜页面,由 OpenCompass 社区维护。MMBench(Multi-Modal Benchmark)是一个多模态基准测试平台,旨在评估大型视觉-语言模型(Vision-Language Models, VLMs)的多模态理解能力。该排行榜展示了不同模型在 MMBench 测试集上的性能表现,为研究人员、开发者以及 AI 社区提供了一个直观的比较平台。
网站功能与内容
-
模型性能排行榜
- 该页面列出了参与评测的多种多模态 prawie:11大语言模型(LLMs)和视觉-语言模型的性能数据。
- 排行榜通常按模型的综合得分排序,并可能包括细分能力(如感知、推理、语言理解等)的具体得分。
- 常见的模型包括开源模型(如 LLaVA、Qwen-VL)和商业模型(如 GPT-4o、Gemini),具体取决于提交和评测的更新情况。
-
评测维度
- MMBench 涵盖约 3000 道多选题,涉及 20 个细粒度能力维度,例如目标检测、文字识别、关系推理、逻辑推理等。
- 排行榜可能展示模型在这些具体任务上的表现,帮助用户了解模型的强项和短板。
-
数据提交与更新
- 开发者可以通过提交评测结果参与排行榜,提交方式通常是将模型输出文件(如 Excel 格式)上传至指定链接(例如 https://mmbench.opencompass.org.cn/mmbench-submission)。
- 排行榜会定期更新,以反映最新的模型性能和技术进步。
-
可视化与对比
- 网站提供直观的表格或图表形式展示数据,便于用户对比不同模型。
- 用户可以筛选或排序数据,查看特定模型或能力的详细信息。
使用场景
- 研究与开发:研究人员利用排行榜数据评估模型性能,优化算法。
- 模型选择:开发者可根据排行榜选择适合其任务的模型。
- 社区贡献:鼓励用户提交新模型结果,共建开源评测生态。
如何访问与使用
- 直接访问 https://mmbench.opencompass.org.cn/leaderboard 查看最新榜单。
- 若需参与评测,可参考 OpenCompass 的 GitHub 页面(https://github.com/open-compass/MMBench)或官方文档获取详细说明。
这个排行榜是多模态 AI 领域的重要资源,体现了 MMBench “评估全方位多模态模型能力”的目标。
热门国家/地区访客分布
国家 | 流量占比 | 月访问量 | 人均访问时长 | 人均访问页数 | 跳出率 |
---|---|---|---|---|---|
日本 | 2.77% | 0.00% | 458秒 | 4 | 25.35% |
中国大陆 | 47.46% | -29.04% | 0秒 | 1 | 51.56% |
中国香港 | 49.78% | 373.05% | 37秒 | 2 | 42.59% |
新加坡 | 5.71% | 50.97% | 0秒 | 1 | 100.00% |
中国香港 | 7.53% | 49.84% | 3秒 | 1 | 10.28% |
你可能还喜欢

AGI-Eval评测社区
是由上海交通大学、同济大学、华东师范大学以及 DataWhale 等高校和机构合作推出的大模型评测社区

Ai-Ceping
领先的大模型评测平台
Chatbot Arena
LMArena.ai 的核心目标是通过用户偏好评估 AI 模型,构建公开的排行榜,促进 AI 技术的进步。

Prompt Llama
一个专注于文本到图像提示生成和模型性能测试的平台,适合对生成模型感兴趣的用户、开发者和创意人士。其核心功能包括生成高质量提示、跨模型测试和结果比较,主要服务于艺术创作、模型研究和提示优化等领域。虽然目前信息有限,但它定位于提供用户友好的工具,帮助用户探索和评估文本到图像生成技术的潜力。
MMLU
MMLU 是一个广泛使用的基准,测试模型在多个学科和任务上的语言理解能力,涵盖高中、大学和专业水平的知识。
Open LLM Leaderboard
由 open-llm-leaderboard 团队创建。它的主要目的是跟踪、排名和评估开源大语言模型(LLMs)和聊天机器人,为用户提供一个透明、可比较的平台,以了解不同模型的性能表现。

C-Eval 排行榜
主要用于展示不同大语言模型(LLMs)在多层次、多学科中文任务中的综合能力排名。

OpenCompass司南 - 评测榜单
OpenCompass 平台的 LLM(大语言模型)排行榜页面,由 OpenCompass 社区维护。