Bring Your Data!Self- supervised Evolution of Large Language Models

Bring Your Data!Self- supervised Evolution of Large Language Models

Introduction

这篇论文提出了一种自监督的评估方式来衡量大型语言模型的能力和局限性。常规的基于数据集的评估方式存在一些缺点:

  1. 需要不断新建数据集。
  2. 存在数据集和模型训练数据交叉的问题,影响评估结果。
  3. 难以评估模型在实际部署中的表现。为了弥补这些缺点,论文提出了自监督评估方法。

主要思想是:对输入文本做一些简单的转换(如添加否定词、颠倒词序等),然后比较原始文本和转换文本模型的输出(或概率分布),通过模型对这些转换的不变性或敏感度来评估它的能力。

Method

自监督评估的主要思想是:

基于输入文本做某种简单的转换,形成一对原始文本和变换后的文本,将这对文本送入模型,分析模型对这种转换的不变性或敏感度,将多个这样的文本对的数据聚合,形成一个总体上的不变性或敏感度分数。

具体过程:

  1. 对数据集(如维基百科)构建输入文本x和变换后的文本x'对。
  2. 将这对文本送入模型f,获取模型输出(可以是概率分布、困惑值、文本等)。
  3. 根据输出f(x)和f(x')使用一个相似度度量M量化它们的相似性。
  4. 将相似度度量在整个数据集上聚合,使用聚合函数A计算最终的不变性/敏感度分数。

论文提出了以下变换来评估模型:

  1. 添加否定词,测量模型对否定句子模型分布的变化,来反应模型的世界知识。

  2. 添加有毒引发词,分析模型生成的文本来测量模型对有毒文本的敏感度。

  3. 替换一些上下文句子,测量模型对最后一句话的概率分布变化,来反应模型对长距离上下文的敏感度。

  4. 颠倒词序,测量模型对概率分布的变化来反应模型对词序的敏感度。

  5. 将输入文本拆分后重新组合,测量模型对这样的分词变化的鲁棒性。

参考

https://arxiv.org/pdf/2306.13651.pdf

相关推荐
剑穗挂着新流苏31243 分钟前
115_PyTorch 实战:从零搭建 CIFAR-10 完整训练与测试流水线
人工智能·pytorch·深度学习·神经网络
Veggie2643 分钟前
【Java深度学习】PyTorch On Java 系列课程 第八章 17 :模型评估【AI Infra 3.0】[PyTorch Java 硕士研一课程]
java·人工智能·深度学习
链上杯子1 小时前
《2026 LangChain零基础入门:用AI应用框架快速搭建智能助手》第8课(完结篇):小项目实战 + 部署 —— 构建网页版个人知识库 AI 助手
人工智能·langchain
东方不败之鸭梨的测试笔记2 小时前
AI生成测试用例方案
人工智能·测试用例
笨手笨脚の2 小时前
AI 基础概念
人工智能·大模型·prompt·agent·tool
飞睿科技3 小时前
解析 ESP-AirPuff 泡芙一号的 ESP32-P4 大模型 AI 智能体方案
人工智能
云烟成雨TD3 小时前
Spring AI Alibaba 1.x 系列【4】ReAct 范式与 ReactAgent 核心设计
java·人工智能·spring
乐分启航3 小时前
SliMamba:十余K参数量刷新SOTA!高光谱分类的“降维打击“来了
java·人工智能·深度学习·算法·机器学习·分类·数据挖掘
_codemonster4 小时前
被子植物门 —— 纲、目、科详细梳理 + 分类依据
人工智能·分类·数据挖掘
RoboWizard5 小时前
本地AI主机批量部署 高效存储支撑全场景配置
大数据·人工智能