当前位置: 首页 > article >正文

MMLU-Pro-NoMath:高效评估语言模型知识与推理能力的新基准

1. MMLU-Pro-NoMath项目概述在大型语言模型LLM评估领域MMLUMassive Multitask Language Understanding基准测试长期以来都是衡量模型多任务理解能力的黄金标准。但随着模型性能的快速提升原始MMLU测试集开始出现天花板效应——顶级模型得分已经接近饱和难以区分顶尖模型之间的细微差异。这就是MMLU-Pro诞生的背景它通过增加选项数量从4个增至10个和题目难度为评估提供了更大的区分空间。然而MMLU-Pro中43%的题目涉及多步数学计算这使得评估过程变得复杂且耗时。更关键的是数学能力成为了评估的门槛——即使模型具备出色的知识和推理能力如果数学计算不过关整体得分也会被拉低。这正是我们创建MMLU-Pro-NoMath子集的初衷保留MMLU-Pro在知识和推理评估上的优势同时去除数学计算的干扰打造一个更纯粹、更高效的评估工具。提示MMLU-Pro-NoMath并非简单地删除数学相关类别而是通过逐题筛选保留了各类别中非数学的优质题目确保评估的广度和深度不受影响。2. NoMath子集的构建细节2.1 题目筛选方法论构建NoMath子集的核心挑战在于准确识别哪些题目真正依赖多步数学计算。我们采用了以下严谨的筛选流程AI辅助分类使用Claude-3.5-sonnet模型对每个测试项进行三分类Y需要多步计算N不需要数学计算S仅需简单心算包容性筛选策略我们保留了N和S类题目因为心算题目不会显著增加评估复杂度许多S类题目仍能有效评估推理能力这样可以最大化保留优质的非数学题目题目长度优化原始数据集中约1.5%的题目长度异常1400-4700字符这些超长题目会导致并行评估时内存溢出风险增加评估速度显著下降通过剔除这些异常值我们确保了评估过程的稳定性和效率2.2 数据集统计与特性经过上述处理我们得到了两个版本的子集MMLU-Pro-NoMath完整非数学题目集MMLU-Pro-NoMath-Sml平衡各类题目数量的精简版实测表明使用Gemma-2-9b模型评估时NoMath完整版耗时约20分钟NoMath-Sml版仅需7分钟这种效率提升使得频繁的模型迭代评估变得可行特别适合以下场景开发过程中的快速验证资源有限的研究团队需要大规模并行评估的情况3. 评估方法深度解析3.1 Logprobs评估原理Logprobs对数概率评估是一种基于概率而非文本生成的评估方法其核心流程如下概率计算对于每个选择题选项计算模型生成该选项的log概率对选项中的每个token取log概率对所有token的log概率求和考虑选项长度的影响通常进行长度归一化答案选择比较各选项的log概率得分选择最高分作为模型预测优势分析速度比生成式评估快5-10倍一致性不受prompt工程影响稳定性避免了解析生成文本的不确定性注意虽然logprobs评估效率高但在需要展示推理过程Chain-of-Thought的题目上其表现可能不如生成式方法。这也是我们去除多步数学题目的另一个原因——确保评估方法与被评估内容的最佳匹配。3.2 生成式评估对比当使用生成式评估如CoT prompting时需要考虑以下额外因素prompt设计需要精心设计引导模型展示推理过程的prompt结果解析需要可靠的方法从生成文本中提取最终答案计算成本生成完整推理过程显著增加计算负担我们的实验数据显示同一模型在不同评估方法下的表现差异Gemma-2-9b-it模型Logprobs评估准确率53.43%生成式CoT评估准确率59.08%这种差异印证了评估方法选择的重要性也说明了为什么需要针对不同评估方法优化测试集。4. 实践指南如何运行评估4.1 使用Eleuther LM-Eval进行Logprobs评估这是最快捷的评估方式适合快速迭代# 克隆定制版评估工具 git clone https://github.com/sam-paech/lm-evaluation-harness.git -b mmlu-pro-irt cd lm-evaluation-harness # 安装依赖 pip install -e . pip install githttps://github.com/huggingface/transformers.git # 设置Hugging Face token huggingface-cli login --token mytoken export HF_HUB_ENABLE_HF_TRANSFER1 # 运行评估 lm_eval --model hf \ --model_args pretrainedgoogle/gemma-2-9b-it,device_mapauto,max_length4096,dtypebfloat16 \ --tasks mmlu-pro-nomath,mmlu-pro-nomath-sml \ --device auto --batch_size auto关键参数说明device_mapauto自动分配可用硬件资源max_length4096设置最大上下文长度dtypebfloat16使用bfloat16精度平衡精度和内存使用4.2 使用VLLM进行生成式评估如果需要CoT评估推荐使用VLLM方案git clone https://github.com/EQ-Bench/MMLU-Pro.git cd MMLU-Pro pip install -r requirements.txt pip install githttps://github.com/vllm-project/vllm.git # 对于Gemma-2兼容性 export VLLM_ATTENTION_BACKENDFLASHINFER python evaluate_from_local.py \ --save_dir eval_results \ --model google/gemma-2-9b-it \ --gpu_util 0.94 \ --dataset sam-paech/mmlu-pro-nomath-sml常见问题处理内存不足在evaluate_from_local.py中为LLM初始化添加enforce_eagerTrue参数性能优化调整--gpu_util参数控制GPU利用率批处理大小根据可用显存手动设置--batch_size4.3 使用llama.cpp的CPU部署方案对于没有高端GPU的环境llama.cpp提供了可行的替代方案# 编译llama.cpp git clone https://github.com/ggerganov/llama.cpp.git cd llama.cpp make LLAMA_CUDA1 # 启动模型服务后台运行 screen -S llama_server ./server -m gemma-2-9b-it-Q8_0.gguf --ctx-size 4096 --n-gpu-layers 200 --chat-template gemma2 # 按CtrlA, 然后D退出screen会话 # 运行评估 cd ~/MMLU-Pro python evaluate_from_llama.cpp.py --dataset sam-paech/mmlu-pro-nomath-sml性能提示使用量化模型如Q8_0可大幅减少内存占用--n-gpu-layers参数控制使用GPU加速的层数对于纯CPU运行移除LLAMA_CUDA1编译选项5. 结果解读与应用建议5.1 典型模型表现对比我们观察到不同规模模型在三个测试集上的典型表现模型MMLUMMLU-ProMMLU-Pro-NoMathQwen-2-72B82.364.468.1Gemma-2-9b-it62.148.753.4Llama3-8B66.251.355.8关键发现NoMath子集确实保留了MMLU-Pro相对于MMLU的难度优势数学能力对整体得分的影响约为3-4个百分点模型间的相对排名在不同测试集上保持稳定5.2 使用场景建议根据我们的实践经验推荐以下使用策略适合使用NoMath子集的情况快速模型迭代开发阶段主要关注知识和推理能力评估资源有限或需要频繁评估需要与其他研究进行logprobs评估结果对比仍需使用完整MMLU-Pro的情况全面评估模型能力特别关注数学推理能力准备发布最终模型评估结果研究数学能力与其他能力的相关性6. 常见问题与解决方案6.1 评估过程中的技术问题问题1评估时出现OOM内存不足错误解决方案减小batch_size参数使用更低精度的数据类型如float16代替bfloat16尝试使用NoMath-Sml更小的子集对于生成式评估缩短max_new_tokens问题2评估速度远慢于预期检查点确认使用了适当的硬件加速如CUDA监控GPU利用率调整并行度对于远程服务器检查网络延迟考虑使用更高效的评估框架如vLLM6.2 结果分析与解释问题NoMath得分与完整MMLU-Pro得分的差异意味着什么如果差异显著5%可能表明模型数学能力是明显短板模型在非数学题目上表现相对较好评估方法如logprobs vs CoT对数学题目影响更大问题如何比较不同评估方法的结果重要原则同一种评估方法内部比较才有意义Logprobs结果通常低于生成式结果CoT带来的提升幅度可以反映模型推理能力在实际项目中我们发现几个值得分享的经验对于初步筛选NoMathlogprobs组合效率最高当模型迭代到后期应该使用完整评估方案评估结果应该总是注明使用的具体测试集和方法不同规模的模型可能受数学题目影响程度不同通过MMLU-Pro-NoMath我们为社区提供了一个既能保留MMLU-Pro评估优势又更加高效灵活的替代方案。特别是在资源受限的研究场景中它能够支持更频繁的模型评估加速研究迭代周期。

相关文章:

MMLU-Pro-NoMath:高效评估语言模型知识与推理能力的新基准

1. MMLU-Pro-NoMath项目概述在大型语言模型(LLM)评估领域,MMLU(Massive Multitask Language Understanding)基准测试长期以来都是衡量模型多任务理解能力的黄金标准。但随着模型性能的快速提升,原始MMLU测试…...

RimWorld模组管理终极指南:用RimSort快速整理300+模组

RimWorld模组管理终极指南:用RimSort快速整理300模组 【免费下载链接】RimSort RimSort is an open source mod manager for the video game RimWorld. There is support for Linux, Mac, and Windows, built from the ground up to be a reliable, community-manag…...

04华夏之光永存・开源:黄大年茶思屋榜文解法「23期 4题」 【考虑QoS的发射机设计专项完整解法】

04华夏之光永存・开源:黄大年茶思屋榜文解法「23期 4题」 【考虑QoS的发射机设计专项完整解法】 一、摘要 考虑QoS的多TTI发射机设计与多阶段决策赛道,全球现代工程技术已触达绝对性能天花板。传统单TTI静态调度、刚性功率分配、无感知速率匹配的技术框架…...

php内核 PHP内核版本号、版权信息本地化修改

最佳方式不是到处乱改源码,而是做“最小补丁 统一开关 自动打补丁编译”。 这样后面升级─PHP─8.2─->─8.3─不会痛苦。──────────────────────────────────────────…...

完全掌握高效远程连接:专业SSH工具中文版实战应用指南

完全掌握高效远程连接:专业SSH工具中文版实战应用指南 【免费下载链接】Termius-zh_CN 汉化版的Termius安卓客户端 项目地址: https://gitcode.com/alongw/Termius-zh_CN Termius中文版是专为安卓用户打造的SSH客户端中文终端模拟器,通过精准汉化…...

php内核 Swoole/Hyperf 改造PHP内核的底层改动点

──Swoole 是“扩展层重写运行时行为”,不是直接魔改 PHP 源码。────────────────────────────────────────────────────────────Hyperf 是“基于 Swoole 的框架层工程化”,基本不碰 PHP …...

Rust的#[derive(Default)]初始化策略

Rust的#[derive(Default)]初始化策略:简化代码的利器 在Rust中,初始化复杂结构体或枚举时,手动实现Default trait可能显得繁琐。而#[derive(Default)]宏则提供了一种自动化解决方案,让开发者能够轻松为类型生成默认值。这一特性不…...

报名 | 第八届智源大会 相约6月12日-13日

这一年,人工智能发展的底层逻辑正在发生改变。热度并未退潮,而在加速前进。更重要的变化是,人工智能正在从“能力竞赛”走向“系统落地” —— 如何在真实世界中稳定运行、持续演化,并真正嵌入人类社会与产业体系。以智能体&#…...

5个颠覆性虚拟显示应用场景:Windows虚拟桌面革命

5个颠覆性虚拟显示应用场景:Windows虚拟桌面革命 【免费下载链接】virtual-display-rs A Windows virtual display driver to add multiple virtual monitors to your PC! For Win10. Works with VR, obs, streaming software, etc 项目地址: https://gitcode.com…...

【第25期】2026年4月28日 AI日报

📅 2026 年 04 月 28 日 周二 📌 头条速览 DeepSeek V4-Pro优惠延期,国产大模型价格战愈演愈烈。 📰 今日动态 DeepSeek V4-Pro优惠延期至5月底,输入缓存价低至0.025元/百万tokens 发生了什么: DeepSeek官…...

华为云 CodeArts 代码智能体深度评测:国产 AI 编程助手,能打几分?

当 Cursor 在海外风生水起,GitHub Copilot 占据半壁江山,中国开发者终于等来了一个"自己人"——华为云 CodeArts 代码智能体。它到底行不行?我替你试了。一、先说结论 CodeArts 代码智能体(下文简称 CodeArts Agent&…...

RimWorld模组管理终极指南:跨平台智能管理器完整教程

RimWorld模组管理终极指南:跨平台智能管理器完整教程 【免费下载链接】RimSort RimSort is an open source mod manager for the video game RimWorld. There is support for Linux, Mac, and Windows, built from the ground up to be a reliable, community-manag…...

Moltbook:LLM工具调用标准化框架,构建智能体应用的核心引擎

1. 项目概述:一个为大型语言模型设计的“瑞士军刀”式工具最近在折腾大语言模型(LLM)应用开发时,我一直在寻找一个能统一管理各种工具调用、让模型“手脚”更灵活的方案。市面上工具不少,但要么绑定特定框架&#xff0…...

会计金融文档AI处理:Ark模型的技术突破与应用

1. 项目概述:AI Bookkeeper的诞生背景在会计和财务文档处理领域,人工数据录入和分类工作长期以来占据着大量时间成本。根据美国注册会计师协会的调查,中小型企业平均每周需要花费15-20小时处理基础会计文档。传统OCR技术虽然能识别文字&#…...

视频生成模型技术解析与NeMo框架实践

1. 视频生成模型的行业变革与挑战过去一年里,视频生成技术正在经历从实验室研究到产业应用的跨越式发展。作为从业者,我亲眼见证了这项技术如何从简单的视频插帧发展到能够生成连贯的分钟级视频内容。在机器人训练、自动驾驶仿真和影视预制作等领域&…...

JavaScript多智能体AI框架KaibanJS开发指南

1. 项目概述:JavaScript生态中的多智能体AI框架作为一名长期工作在JavaScript和AI交叉领域的开发者,我见证了近年来AI技术在前端和后端应用中的爆发式增长。然而,一个明显的痛点始终存在:绝大多数先进的AI框架(如LangC…...

终极Windows 11优化指南:如何使用Win11Debloat让你的系统更快更干净

终极Windows 11优化指南:如何使用Win11Debloat让你的系统更快更干净 【免费下载链接】Win11Debloat A simple, lightweight PowerShell script that allows you to remove pre-installed apps, disable telemetry, as well as perform various other changes to dec…...

Transformer底层逻辑:被低估的残差连接,小白也能看懂的大模型秘密(收藏版)

本文深入解析Transformer模型中的残差连接,从其起源ResNet谈起,阐述其在解决梯度消失、提升网络深度方面的关键作用。文章对比了传统网络与残差网络的差异,揭示了残差连接如何通过“加法操作”实现信息保真与梯度稳定,并探讨了在极…...

为什么32位STM32是CNC控制的终极升级方案?

为什么32位STM32是CNC控制的终极升级方案? 【免费下载链接】GRBL_for_STM32 A code transportation from origin grbl_v1.1f to STM32F103VET6, mainly prepare for my MegaCNC project. 项目地址: https://gitcode.com/gh_mirrors/gr/GRBL_for_STM32 GRBL_f…...

新概念英语第二册42_Not very musical

Lesson 42: Not very musical 不太懂音乐Key words and expressions musical 精通音乐的Delhi /ˈdeli/德里(印度城市)square 广场snake charmer 耍蛇人pipe (吹奏的)管乐器tune…...

终极内存清理神器:Mem Reduct完整使用指南

终极内存清理神器:Mem Reduct完整使用指南 【免费下载链接】memreduct Lightweight real-time memory management application to monitor and clean system memory on your computer. 项目地址: https://gitcode.com/gh_mirrors/me/memreduct 你的电脑是否经…...

NVIDIA Profile Inspector:解锁显卡隐藏性能的终极免费工具

NVIDIA Profile Inspector:解锁显卡隐藏性能的终极免费工具 【免费下载链接】nvidiaProfileInspector 项目地址: https://gitcode.com/gh_mirrors/nv/nvidiaProfileInspector 你是否曾经觉得自己的NVIDIA显卡性能没有完全发挥?明明配置不错&…...

标注精度提升47%的关键配置,自动驾驶公司内部未公开的Python标注流水线调优手册

更多请点击: https://intelliparadigm.com 第一章:标注精度提升47%的关键配置,自动驾驶公司内部未公开的Python标注流水线调优手册 在高精地图与BEV感知模型训练中,标注误差是导致mAP下降的首要隐性瓶颈。某头部自动驾驶公司通过…...

如何用Python工具3步获取百度网盘直链:告别限速的完整指南

如何用Python工具3步获取百度网盘直链:告别限速的完整指南 【免费下载链接】baidu-wangpan-parse 获取百度网盘分享文件的下载地址 项目地址: https://gitcode.com/gh_mirrors/ba/baidu-wangpan-parse 你是否厌倦了百度网盘的非会员下载速度限制?…...

百度网盘直链获取终极指南:3步实现高速下载

百度网盘直链获取终极指南:3步实现高速下载 【免费下载链接】baidu-wangpan-parse 获取百度网盘分享文件的下载地址 项目地址: https://gitcode.com/gh_mirrors/ba/baidu-wangpan-parse 你是否厌倦了百度网盘蜗牛般的下载速度?当你急需下载重要文…...

3分钟快速上手:DownKyi B站视频下载器终极使用教程

3分钟快速上手:DownKyi B站视频下载器终极使用教程 【免费下载链接】downkyi 哔哩下载姬downkyi,哔哩哔哩网站视频下载工具,支持批量下载,支持8K、HDR、杜比视界,提供工具箱(音视频提取、去水印等&#xff…...

数字音乐格式困境与用户主权革命:QMCDecode如何重塑音乐文件所有权范式

数字音乐格式困境与用户主权革命:QMCDecode如何重塑音乐文件所有权范式 【免费下载链接】QMCDecode QQ音乐QMC格式转换为普通格式(qmcflac转flac,qmc0,qmc3转mp3, mflac,mflac0等转flac),仅支持macOS,可自动识别到QQ音乐下载目录&…...

AI协作新范式:openJiuwen社区首发Coordination Engineering全栈技术体系

AI Agent正在经历一场工程范式的跃迁。从Prompt Engineering,教会模型如何回答问题;到Context Engineering,为Agent注入恰到好处的上下文;再到Harness Engineering,让单个Agent拥有工具调用、记忆管理、任务规划等完整…...

pcb-4月28

三线排针:C293762510k电阻:C713919LED : C2895470330欧姆电阻:C2848567USB供电: C404969typec : C27651865.1千欧电阻:C25905保险丝: C72007510uf电容:C15850100nf电容:C…...

OpCore Simplify:一键简化OpenCore EFI配置的终极指南 [特殊字符]

OpCore Simplify:一键简化OpenCore EFI配置的终极指南 🚀 【免费下载链接】OpCore-Simplify A tool designed to simplify the creation of OpenCore EFI 项目地址: https://gitcode.com/GitHub_Trending/op/OpCore-Simplify 对于想要体验macOS但…...