A Survey on Fairness in Large Language Models

本文是LLM系列文章,针对《A Survey on Fairness in Large Language Models》的翻译。

大型语言模型中的公平性研究综述

  • 摘要
  • [1 引言](#1 引言)
  • [2 评估度量](#2 评估度量)
  • [3 内在去偏](#3 内在去偏)
  • [4 外部去偏](#4 外部去偏)
  • [5 大型LLM的公平性](#5 大型LLM的公平性)
  • [6 讨论](#6 讨论)
  • [7 结论](#7 结论)

摘要

大型语言模型(LLM)已经显示出强大的性能和发展前景,并在现实世界中得到了广泛的部署。然而,LLM可以从未处理的训练数据中捕捉社会偏见,并将这些偏见传播到下游任务。不公平的LLM制度具有不良的社会影响和潜在的危害。在本文中,我们对LLM中的公平性的相关研究进行了全面的综述。首先,对于中等规模LLM,我们分别从内在偏差和外在偏差的角度介绍了评估指标和去偏方法。然后,对于大规模LLM,我们介绍了最近的公平性研究,包括公平性评估、偏差原因和去偏差方法。最后,我们讨论并深入了解LLM公平发展的挑战和未来方向。

1 引言

2 评估度量

3 内在去偏

4 外部去偏

5 大型LLM的公平性

6 讨论

7 结论

我们对LLM中的公平性问题进行了全面的调查。社会偏见主要来源于包含有害信息和不平衡数据的训练数据,可分为内在偏见和外在偏见。我们总结了LLM的公平性研究,包括中等规模LLM的内在和外在评估指标和去偏策略,以及大规模LLM的公正性评估、偏误原因和去偏方法。此外,我们还讨论了LLM公平性发展中的挑战以及参与者可以努力的研究方向。本次调查的结论是,当前LLM的公平性研究仍需在评估偏差、偏差来源和去偏差策略方面加强。特别是对于仍处于早期阶段的大规模LLM的公平性,从业者应该结合更多的技术,构建全面、安全的语言模型系统。

相关推荐
Juchecar15 分钟前
解析视觉:大脑如何“辨别”美丑?
人工智能
老蒋新思维16 分钟前
紧跟郑滢轩,以 “学习力 +” 驱动 AI 与 IP 商业变革
网络·人工智能·学习·tcp/ip·企业管理·创始人ip·创客匠人
Guheyunyi27 分钟前
安防监控系统,如何为你的生活构筑智慧安全屏障?
大数据·人工智能·安全·信息可视化·生活
计算衎32 分钟前
python的AI大模型之facebook/nllb-200-distilled-600M的介绍和使用
人工智能·python·facebook·huggingface_hub
小狗照亮每一天33 分钟前
【菜狗看背景】自动驾驶发展背景——20251117
人工智能·机器学习·自动驾驶
运筹说35 分钟前
运筹说145期:从快递到自动驾驶:启发式算法的智慧幕后
人工智能·自动驾驶·启发式算法
大白IT35 分钟前
智能驾驶:从感知到规控的自动驾驶系统全解析
人工智能·机器学习·自动驾驶
FL162386312939 分钟前
智慧交通自动驾驶场景道路异常检测数据集VOC+YOLO格式8302张6类别
人工智能·yolo·自动驾驶
拓端研究室39 分钟前
专题:2025年AI Agent智能体行业价值及应用分析报告:技术落地与风险治理|附140+ 份报告PDF、数据、可视化模板汇总下载
人工智能·pdf
数据与后端架构提升之路42 分钟前
英伟达的 Alpamayo-R1:利用因果链推理赋能自动驾驶模型和数据工程剖析
人工智能·机器学习·自动驾驶