多模态基础---BERT

1. BERT简介

BERT用于将一个输入的句子转换为word_embedding,本质上是一个transformer的Encoder。

1.1 BERT的两种训练方法

  1. 预测被遮挡的单词
  2. 预测两个句子是否是相邻的句子
    1和2是同时训练的

1.1 BERT的四种用法

  1. 预测句子的类别:输入一个句子,输出一个类别
  2. 预测句子中每个单词的类别:输入一个句子,输出每个单词的类别
  3. 预测两个句子是否相邻:输入两个句子,输出判断是否相邻的类别
  4. 预测某个问题在文章中的答案:输入一个问题和一篇文章,输出问题在文章中答案的位置(索引)didj

case1: case2:
case3:

case4:


相关推荐
落叶阳光6 分钟前
2025.8-12月 AI相关国内会议
人工智能·会议
FL162386312933 分钟前
红花识别分割数据集labelme格式144张1类别
人工智能·深度学习
程序员JerrySUN1 小时前
OpenCV 全解读:核心、源码结构与图像/视频渲染能力深度对比
linux·人工智能·驱动开发·opencv·计算机视觉·缓存·音视频
The moon forgets1 小时前
ALOcc: Adaptive Lifting-based 3D Semantic Occupancy and
深度学习·3d
张较瘦_1 小时前
[论文阅读] 人工智能 + 软件工程 | GitHub Marketplace中CI Actions的功能冗余与演化规律研究
论文阅读·人工智能·软件工程
martian6651 小时前
深度学习核心:神经网络-激活函数 - 原理、实现及在医学影像领域的应用
人工智能·深度学习·神经网络·机器学习·医学影像·影像大模型
Apache Flink2 小时前
Apache Flink 2.1.0: 面向实时 Data + AI 全面升级,开启智能流处理新纪元
人工智能·flink·apache
用户47949283569152 小时前
mcp是怎么和大模型进行交互的,有哪些交互方式
前端·人工智能