大型语言模型推理能力评估——李宏毅2025大模型课程第9讲内容

本节课主要探讨了"如何科学评估大型语言模型的推理能力",指出当前模型可能依赖记忆而非真正推理,介绍了 ARC-AGI 和 Chatbot Arena 等评估平台,并提醒人们注意评估指标的局限性和误导性。

一、如何评估大型语言模型的「推理」能力?

简单粗暴的方式:是否能解出数学题、是否能写出代码。比如deepseek-R1的技术报告中,展示的推理能力。AIME是一个数学竞赛,codeforces是代码相关的正确率。

二、模型答案中有多少是「记忆」出来的?

  • 解出数学题,就代表模型的推理能力更强吗?

  • 多篇研究指出,大型语言模型在回答问题时,可能并非真正「理解」或「推理」,而是依赖于训练数据中的记忆内容。

  • 相关论文 https://arxiv.org/abs/2410.05229

    • 论文内容:把GSM8k(数学题库)中的题目,只换掉人名等无关紧要的词,模型的正确率就会下降。

把GSM8K题目中,句子的顺序调换但不影响题目的意思,各个模型的正确率都有下降(灰色柱子为原题目、蓝色柱子为调换顺序的题目)

三、ARC-AGI:通用人工智能的抽象与推理评测基准

  • ARC-AGI(Abstraction and Reasoning Corpus for AGI)是评估 AI 抽象与推理能力的重要基准。 有图形的推理题目

四、Chatbot Arena:语言模型对战平台

  • 网站:https://lmarena.ai/

  • 通过成千上万的用户与模型对话的胜率统计,生成模型的 Elo 评分(评分方式如截图)。理论上,用户的问题千奇百怪,所以模型不能刷分。但是chatbot Arena指出模型排名可能受非技术因素(如风格、情感倾向)影响,提醒人们注意评估指标的局限性。

考虑风格和情感模型后,模型的评分会变化,比如claude的模型剔除掉风格因素后排名上升很多

五、Goodhart's Law(古德哈特定律)

「当一项指标成为目标时,它就不再是一个好指标。」

过度依赖某个评估指标可能导致模型优化方向偏离真实能力,提醒研究者和开发者保持警惕。

背后的故事:英国殖民者统治印度的时候,发现印度蛇很多,英国人提出,捉到蛇的印度人可以获得金钱奖励,印度人会偷偷养很多蛇骗奖励,结果蛇更多了。

相关推荐
Database_Cool_几秒前
Tair 短期记忆架构实践:淘宝闪购 AI Agent 的秒级响应记忆系统
人工智能·架构
叶舟1 分钟前
LYT-NET:一个超级轻量的低光照图像增强Transformer网络
人工智能·深度学习·transformer·llie·低光照图像增强
乾元5 分钟前
《硅基之盾》番外篇二:算力底座的暗战——智算中心 VXLAN/EVPN 架构下的多租户隔离与防御
网络·人工智能·网络安全·架构
ALL_IN_AI6 分钟前
本地部署 Ollama 大模型:零成本开启 AI 开发之旅
人工智能
木心术17 分钟前
设备管理网管系统:详细下一步行动指南
前端·人工智能·opencv
小白狮ww13 分钟前
Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled 蒸馏模型,27B 参数也能做强推理
人工智能·自然语言处理·claude·通义千问·opus·推理·qwen3.5
w_t_y_y15 分钟前
python类库(一)模板
人工智能
Nova_AI21 分钟前
014、AI开源生态:模型、工具与社区的盈利之道
人工智能·开源
weixin_5134499624 分钟前
walk_these_ways项目学习记录第八篇(通过行为多样性 (MoB) 实现地形泛化)--策略网络
开发语言·人工智能·python·学习
管二狗赶快去工作!31 分钟前
体系结构论文(九十八):NPUEval: Optimizing NPU Kernels with LLMs and Open Source Compilers
人工智能·深度学习·自然语言处理·体系结构