Al-Ceping是由同济大学开发的大模型评测数据收集平台,由同济大学王昊奋教授发起,由复旦大学熊贇教授,浙江大学陈华钧教授,东南大学漆桂林教授以及天津大学王鑫教授为指导委员的一个权威、公正、透明的大语言模型评测平台。
热门国家/地区访客分布
国家 | 流量占比 | 月访问量 | 人均访问时长 | 人均访问页数 | 跳出率 |
---|---|---|---|---|---|
中国大陆 | 100.00% | 0.00% | 377秒 | 8 | 26.72% |
中国大陆 | 17.05% | -86.22% | 305秒 | 5 | 7.70% |
日本 | 39.75% | 0.00% | 192秒 | 2 | 42.54% |
美国 | 43.21% | 0.00% | 0秒 | 1 | 44.31% |
中国大陆 | 100.00% | -17.68% | 1928秒 | 10 | 7.67% |
©版权声明: 本网站(猫目,网址:https://maomu.com/ )所有内容,包括但不限于文字、图片、图标、数据、产品描述、页面设计及代码,均受中华人民共和国著作权法及国际版权法律保护,归本站所有。未经书面授权,任何个人、组织或机构不得以任何形式复制、转载、修改、传播或用于商业用途。 对于任何侵犯本网站版权的行为,我们保留追究其法律责任的权利,包括但不限于要求停止侵权、赔偿损失及提起诉讼。
你可能还喜欢

AGI-Eval评测社区
是由上海交通大学、同济大学、华东师范大学以及 DataWhale 等高校和机构合作推出的大模型评测社区
Chatbot Arena
LMArena.ai 的核心目标是通过用户偏好评估 AI 模型,构建公开的排行榜,促进 AI 技术的进步。

Prompt Llama
一个专注于文本到图像提示生成和模型性能测试的平台,适合对生成模型感兴趣的用户、开发者和创意人士。其核心功能包括生成高质量提示、跨模型测试和结果比较,主要服务于艺术创作、模型研究和提示优化等领域。虽然目前信息有限,但它定位于提供用户友好的工具,帮助用户探索和评估文本到图像生成技术的潜力。
MMLU
MMLU 是一个广泛使用的基准,测试模型在多个学科和任务上的语言理解能力,涵盖高中、大学和专业水平的知识。
Open LLM Leaderboard
由 open-llm-leaderboard 团队创建。它的主要目的是跟踪、排名和评估开源大语言模型(LLMs)和聊天机器人,为用户提供一个透明、可比较的平台,以了解不同模型的性能表现。

C-Eval 排行榜
主要用于展示不同大语言模型(LLMs)在多层次、多学科中文任务中的综合能力排名。

MMBench
MMBench 的官方排行榜页面,由 OpenCompass 社区维护。

OpenCompass司南 - 评测榜单
OpenCompass 平台的 LLM(大语言模型)排行榜页面,由 OpenCompass 社区维护。