Re59:读论文 Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks

诸神缄默不语-个人CSDN博文目录
诸神缄默不语的论文阅读笔记和分类

论文名称:Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks

模型开源地址:https://huggingface.co/facebook/rag-token-nq

ArXiv下载地址:https://arxiv.org/abs/2005.11401

本文是2020年NeurIPS论文,属于RAG+LLM领域。作者来自Facebook

本文的研究背景也是说直接用LM存储的知识不够,且难以扩展和修正,有幻觉,还是得上检索(提供决策出处,可以更新知识)。

LM是预训练的seq2seq模型(BART),知识库是维基百科的稠密向量索引(用预训练的神经网络实现检索 Dense Passage Retriever (DPR))。要么一次检索一波(per-output basis),要么一个token检索一波(per-token basis)(这个见模型部分)。

其实看起来就是REALM的拓展版,将检索文档改成视为隐变量,然后拓展了下游任务,而且是全链路端到端的训练。

比REALM迟,参考文献里就有REALM。但是不用代价高昂的"salient span masking" pre-training

总之整个工作还是做得很全面的,实验充分,真羡慕啊。

文章目录

  • [1. related work](#1. related work)
  • [2. 模型](#2. 模型)
  • [3. 实验](#3. 实验)

non-parametric memory除检索外的形式:

memory networks

stack-augmented networks

memory layers

RAG知识量大而且不需要额外训练

knowledge-intensive tasks:人们认为没有额外知识就没法做的任务,比如常识题(什么行测)

2. 模型

端到端训练:将检索到的文档视为隐变量

RAG-Sequence:对每一篇检索文档都预测完整的生成结果,加总

RAG-Token:每一个token都是大家的机会,每个token上重新检索一次

检索器DPR

top k:Maximum Inner Product Search (MIPS)问题 ← FAISS

生成器BART

(在实验中只更新query encoder和生成器)

训练时没有检索文档的标注信息。

解码:

  1. RAG-Token:标准生成任务
  2. RAG-Sequence:Thorough Decoding + Fast Decoding(没看懂其实,以后再看)

3. 实验

Jeopardy Question Generation指标这里用了一个Q-BLEU,以前我还真没见过

还有一条是生成能获得原文中没有的结果

在生成方面还有一些别的优势,略。

RAG-Token的后验概率可视化:

这里面这个太阳照常升起和永别了武器都是在开头概率高了点,后面就平了,论文里提及认为这里时因为模型内置信息能够自己填完了,还做了个小实验。

生成的多样性:

冻结检索器的消融实验:

更新知识的实验

检索文档数(K)的影响:

相关推荐
冷冷清清中的风风火火12 分钟前
本地部署DeepSeek的硬件配置建议
人工智能·ai
sauTCc20 分钟前
RAG实现大致流程
人工智能·知识图谱
lqqjuly34 分钟前
人工智能驱动的自动驾驶:技术解析与发展趋势
人工智能·机器学习·自动驾驶
山东布谷科技官方1 小时前
AI大模型发展对语音直播交友系统源码开发搭建的影响
人工智能·实时音视频·交友
thinkMoreAndDoMore1 小时前
深度学习(2)-深度学习关键网络架构
人工智能·深度学习·机器学习
山海青风1 小时前
从零开始玩转TensorFlow:小明的机器学习故事 1
人工智能·机器学习·tensorflow
圣心1 小时前
Ollama 快速入门
开发语言·javascript·人工智能
小屁孩大帅-杨一凡1 小时前
如何实现使用DeepSeek的CV模型对管道内模糊、低光照或水渍干扰的图像进行去噪、超分辨率重建。...
图像处理·人工智能·opencv·计算机视觉·超分辨率重建
mengyoufengyu2 小时前
DeepSeek04-导出导入模型文件
人工智能·深度学习·deepseek
不一样的信息安全2 小时前
开启开源新时代:DeepSeek引领人工智能技术开放化
人工智能·开源