让 LLM 来评判 | 技巧与提示

这是 让 LLM 来评判 系列文章的第六篇,敬请关注系列文章:

LLM 评估模型已知偏差及缓解措施:

  • 缺乏内部一致性 :同一 prompt 输入评估模型执行多次得到的结果可能不一样 (如果温度参数不设为 0)。
    • 缓解措施:遵循 "自我一致性 (self-consistency)" 设置 prompt,输入模型执行多次并保留多数结果
  • 自我偏好 :LLM 评估模型更 偏好自己的输出模式,因此会对模式相似的结果评分偏高。
    • 缓解措施:采用陪审团机制
  • 输入扰动不敏感 :评估模型对 扰动输入 的辨识效果较差,难以提供一致的评分范围 (更多实验结果可以参考 这个链接)。例如对于施加了相同程度噪声的文本,使用评估模型评估文本质量的评分无法反映噪声的程度。
    • 缓解措施:
      • 要求模型先输出详细的推理过程 再输出评分
      • 在 prompt 中添加一致的评分标准
  • 位置偏差 :评估模型更 偏好特定位置的答案。例如在成对比较时,Claude 和 GPT3.5 在多次测试中通常会偏好某一个位置,例如第一个或第二个答案。
    • 缓解措施:
      • 随机调整答案位置
      • 计算所有选项的对数概率并归一化
  • 冗长偏好 (长度偏差) :评估模型更偏好冗长的答案。
  • 难以对齐人类答案
  • 格式偏差 :如果输入模型的 prompt 格式与其训练数据的格式 相差甚远,可能导致模型的评估结果不准确。例如,成对比较模型的训练集数据格式中提供了参考答案,如果在评估时没有给定参考答案或者给定的参考答案格式有误,那么评估结果就不可信。
    • 缓解措施:仔细遵循评估模型训练集 prompt 格式 (比如指令微调模型的格式)。

选择合适的 LLM 评估任务

LLM 评估特性:


英文原文: evaluation-guidebook/contents/model-as-a-judge/tips-and-tricks.md

原文作者: clefourrier

译者: SuSung-boy

审校: adeenayakup

相关推荐
yutianzuijin30 分钟前
大模型推理--从零搭建大模型推理服务器:硬件选购、Ubuntu双系统安装与环境配置
服务器·ubuntu·llm·大模型推理
CoderJia程序员甲4 小时前
RAG_Techniques:探索GitHub热门RAG技术开源项目
ai·llm·github·ai教程·rag技术
水煮蛋不加蛋2 天前
从 Pretrain 到 Fine-tuning:大模型迁移学习的核心原理剖析
人工智能·机器学习·ai·大模型·llm·微调·迁移学习
AI大模型顾潇2 天前
[特殊字符] 人工智能大模型之开源大语言模型汇总(国内外开源项目模型汇总) [特殊字符]
数据库·人工智能·语言模型·自然语言处理·大模型·llm·prompt
火云牌神3 天前
本地大模型编程实战(32)用websocket显示大模型的流式输出
python·websocket·llm·fastapi·流式输出
John1591513 天前
#Paper Reading# DeepSeek-R1
gpt·llm·nlp·deepseek
kaaokou3 天前
论文笔记——QWen2.5 VL
论文阅读·大模型·llm·ocr·多模态·vl
大模型铲屎官3 天前
【深度学习-Day 2】图解线性代数:从标量到张量,理解深度学习的数据表示与运算
人工智能·pytorch·python·深度学习·线性代数·机器学习·llm
万俟淋曦4 天前
【论文速递】2025年09周 (Robotics/Embodied AI/LLM)
人工智能·ai·机器人·大模型·llm·论文·具身智能
火云牌神5 天前
本地大模型编程实战(29)查询图数据库NEO4J(2)
python·langchain·llm·neo4j