From Sparse to Dense: GPT-4 Summarization with Chain of Density Prompting

本文是LLM系列的文章,针对《From Sparse to Dense: GPT-4 Summarization with Chain of Density Prompting》的翻译。

从稀疏到密集:密度链提示下的GPT-4摘要

  • 摘要
  • [1 引言](#1 引言)
  • [2 密度提升链](#2 密度提升链)
  • [3 统计数据](#3 统计数据)
  • [4 结果](#4 结果)
  • [5 相关工作](#5 相关工作)
  • [6 结论](#6 结论)
  • [7 局限性](#7 局限性)

摘要

选择要包含在摘要中的"正确"信息量是一项艰巨的任务。一个好的总结应该是详细的、以实体为中心的,而不是过于密集和难以遵循。为了更好地理解这种权衡,我们寻求越来越密集的GPT-4摘要,我们称之为"密度链"(CoD)提示。具体来说,GPT-4在不增加长度的情况下迭代合并缺失的显著实体之前,生成初始实体解析摘要。与普通提示生成的GPT-4摘要相比,CoD生成的摘要更抽象,表现出更多的融合,并且具有更少的潜在偏差。我们对美国有线电视新闻网每日邮报的100篇文章进行了人类偏好研究,发现人类更喜欢GPT-4摘要,这些摘要比普通提示生成的摘要更密集,几乎和人类书面摘要一样密集。定性分析支持这样一种观点,即在信息性和可读性之间存在权衡。HuggingFace上免费提供500份注释CoD摘要,以及额外的5000份未注释摘要。

1 引言

2 密度提升链

3 统计数据

4 结果

5 相关工作

6 结论

我们研究了概括致密化对人类整体素质偏好的影响。我们发现,优选一定程度的致密化,然而,当摘要每个token包含太多实体时,很难保持可读性和一致性。我们开源了带注释的测试集以及更大的未带注释的训练集,以进一步研究固定长度、可变密度摘要的主题。

7 局限性

我们只分析单一领域的CoD,即新闻摘要。注释没有显示出高度的汇总级别一致性,但确实开始显示系统级别的趋势,这与之前基于LLM的评估工作一致。最后,GPT-4是一个闭源模型,因此我们不能共享模型权重。然而,我们确实发布了所有评估数据、注释,以及5000个未注释的CoD,用于下游用例,例如,密度蒸馏到开源模型中,如LLAMA-2。

相关推荐
长桥夜波17 分钟前
【第十七周】机器学习笔记06
人工智能·笔记·机器学习
golang学习记19 分钟前
Claude Code2.0.12发布插件系统:构建可扩展的 AI 编程工作流
人工智能
minhuan20 分钟前
构建AI智能体:六十二、金融风控系统:基于信息熵和KL散度的异常交易检测
人工智能·信息熵·kl散度·信息论·金融风控
zy_destiny26 分钟前
【工业场景】用YOLOv8实现人员打电话识别
人工智能·python·深度学习·yolo·机器学习·计算机视觉·目标跟踪
feixiangyuncai1 小时前
Bentley软件迎新任首席营销官,驱动AI营销新动力
人工智能·智慧城市·能源·交通物流
CoderLemon1 小时前
告别重复编码:Claude Code 自动化开发全流程详解——启航篇-00
人工智能·claude
MARS_AI_1 小时前
云蝠智能VoiceAgent 9月升级概览:从功能交互到用户体验
人工智能·自然语言处理·交互·信息与通信·agi
飞哥数智坊1 小时前
“狗都不用”的 Cursor Auto 模式,竟靠 Plan Mode 真香回归?
人工智能·ai编程·cursor
Mr.Winter`1 小时前
深度强化学习 | 基于SAC算法的动态避障(ROS C++仿真)
人工智能·深度学习·神经网络·机器人·自动驾驶·ros·具身智能
东方芷兰1 小时前
LLM 笔记 —— 07 Tokenizers(BPE、WordPeice、SentencePiece、Unigram)
人工智能·笔记·深度学习·神经网络·语言模型·自然语言处理·nlp