小贴士:按下Ctrl+D 或 ⌘+D,一键收藏本站,方便下次快速访问!

C-Eval 排行榜

主要用于展示不同大语言模型(LLMs)在多层次、多学科中文任务中的综合能力排名。
页面内容如果有误,可以随时联系我们进行更新~

https://cevalbenchmark.com/static/leaderboard_zh.html中文大模型评估基准 C-Eval 的官方排行榜页面,主要用于展示不同大语言模型(LLMs)在多层次、多学科中文任务中的综合能力排名。以下是对其核心功能和特点的详细介绍:


一、核心功能

  1. 模型能力排名
    提供实时更新的中文大模型性能排行榜,涵盖国内外主流模型(如 GPT-4、GLM、ChatGPT 等),通过标准化分数直观对比模型在复杂任务中的表现。
  2. 多层次评估体系
    • 学科覆盖:包含 52 个学科,覆盖初中、高中、大学、专业四大难度级别,例如数学、物理、化学、法学、医学等。
    • 题目类型:13,948 道选择题,题目来源包括 PDF/Word 解析和人工标注,避免训练数据污染。
    • 挑战性子集(C-Eval Hard):从评估集中筛选 8 个高难度科目(如高等数学、离散数学),测试模型的深度推理能力。
  3. 评估模式支持
    • Answer-Only(AO):直接输出答案。
    • Chain-of-Thought(CoT):要求模型生成推理过程后再回答,部分科目中 CoT 可显著提升性能(如 GPT-4 在概率统计科目上提升 8.4%)。
  4. 开发者工具
    • 测试集提交:用户可将模型预测结果提交至网站,系统自动生成分数并更新排名,测试集标签保密以保证公平性。
    • 数据防污染设计:采用非结构化数据格式(如 LaTeX)和人工审核,减少预训练数据泄露风险。

二、典型应用场景

  1. 模型研发优化:帮助开发者识别模型在特定学科或难度级别的短板,针对性优化训练策略。
  2. 技术选型参考:企业可根据排行榜选择适合自身场景的模型(如教育、医疗、法律等领域)。
  3. 学术研究支持:为研究中文大模型能力边界、多任务学习机制等提供数据基础。

三、榜单示例(截至搜索结果时间)

排名 模型 综合得分 特点
1 GLM-4 87.2 国内领先的推理能力
2 GPT-4 85.0 多学科均衡表现
3 Claude-3 78.5 逻辑推理优势显著

四、访问与使用

  • 官网入口https://cevalbenchmark.com
  • 数据下载:提供开发集和验证集标签,测试集需通过提交预测结果参与评估。

如需更详细的评估方法或学科分类,可参考 C-Eval 论文 或访问官网文档。

上月数据概览

月访问量8002.74月PV1.78万平均访问时长56秒
跳出率48.66%对比上月362.04%人均访问页面数2

热门国家/地区访客分布

国家流量占比月访问量人均访问时长人均访问页数跳出率
中国香港
5.25%
232.73%
20秒161.41%
中国台湾
5.87%
61.61%
79秒258.68%
日本
8.30%
294.33%
2秒159.52%
美国
21.30%
48.54%
152秒342.57%
中国大陆
59.31%
0.00%
59秒139.57%