bert

Code_流苏1 天前
python·微调·问答系统·bert·应用场景·基于检索·基于生成
《Python星球日记》 第72天:问答系统与信息检索名人说:路漫漫其修远兮,吾将上下而求索。—— 屈原《离骚》 创作者:Code_流苏(CSDN)(一个喜欢古诗词和编程的Coder😊)
sbc-study3 天前
深度学习·bert·transformer
双向Transformer:BERT(Bidirectional Encoder Representations from Transformers)基于Transformer架构,通过双向上下文建模训练,提高完成任务的性能。之前讲的双向递归是用两个RNN进行,而BERT是通过Transformer的自注意力机制同时捕捉上下文信息。
layneyao3 天前
人工智能·自然语言处理·bert
AI与自然语言处理(NLP):从BERT到GPT的演进系统化学习人工智能网站(收藏):https://www.captainbed.cn/flu自然语言处理(NLP)作为人工智能核心领域,正经历从“规则驱动”到“数据驱动”再到“认知智能”的范式跃迁。本文以BERT(2018)与GPT(2018-2023)两大技术流派为脉络,系统梳理预训练语言模型(PLM)在架构创新、训练范式、应用场景及产业生态中的演进路径。通过对比Transformer双分支技术路线(自编码vs自回归)、千亿参数模型竞赛、多模态融合趋势及商业化落地挑战,揭示NLP技术从“理解语言”到“生成
背太阳的牧羊人4 天前
人工智能·深度学习·bert
tokenizer.encode_plus,BERT类模型 和 Sentence-BERT 他们之间的区别与联系➤ 输出的是每个词的向量(比如“我”、“喜欢”、“吃”、“苹果”都有一个向量)➤ 输出的是整句话的语义向量
背太阳的牧羊人5 天前
人工智能·深度学习·bert
SemanticSplitterNodeParser 和 Sentence-BERT 的区别和联系是什么这涉及到文本切分(chunking)与语义向量(embedding)之间的关系。我们来详细对比:SemanticSplitterNodeParser 是 llama-index 提供的一种 语义感知的文本切分工具。它的核心作用是:
背太阳的牧羊人5 天前
人工智能·自然语言处理·bert
BERT类模型那首先搞懂 [CLS] 和池化BERT 的输入格式中,每个序列的开头会添加一个特殊的 [CLS] Token(Classification Token)。它的设计初衷是为分类任务提供全局的句子表示:
背太阳的牧羊人5 天前
人工智能·深度学习·bert
[CLS] 向量是 BERT 类模型中一个特别重要的输出向量,它代表整个句子或文本的全局语义信息[CLS] 向量是 BERT 类模型中一个特别重要的输出向量,它代表整个句子或文本的全局语义信息。在 BERT 模型中,每条输入前会加一个特殊的 token:[CLS](classification 的缩写)。这个 token 没有具体语义,它的作用是:
仙人掌_lz5 天前
人工智能·python·ai·语言模型·自然语言处理·bert
微调ModernBERT为大型语言模型打造高效“过滤器”通过比较这些模型的三个核心方面,我们旨在为模型开发者突出 ModernBERT 的有效设计选择,并为未来的 BERT 类模型开发确定关键洞察。我们还将分享开发 jina-embeddings-v3 的经验,并讨论 jina-embeddings-v4 和 jina-reranker-v3 的计划改进。
___Dream8 天前
人工智能·深度学习·bert
【TF-BERT】基于张量的融合BERT多模态情感分析(背景与问题)由于单模态情感识别在复杂的现实应用中的局限性,多模态情感分析(MSA)得到了极大的关注。传统方法通常集中于使用Transformer进行融合。然而,这些传统的方法往往达不到,因为Transformer只能同时处理两种模态,导致信息交换不足和情感数据的潜在丢失。(方法提出)针对传统跨模态Transformer模型一次只能处理两种模态的局限性,提出了一种基于张量的融合BERT模型(TF-BERT)。TF-BERT的核心是基于张量的跨模态融合(TCF)模块,该模块无缝集成到预训练的BERT语言模型
James. 常德 student9 天前
人工智能·深度学习·bert
BERT 微调BERT 对每一个词元( token )返回抽取了上下文信息的特征向量 不同的任务使用不同的特征将 < cls > 对应的向量输入到全连接层分类
Psycho_MrZhang10 天前
人工智能·深度学习·bert
BERT模型详解目标BERT(Bidirectional Encoder Representations from Transformers)是由Google在2018年提出的一种基于Transformer架构的预训练模型。 BERT在及其阅读理解顶级水平测试SQuAD1.1中表现出惊人的成绩, 全部两个衡量指标上全面超越人类, 并且在11种不同的NLP测试中创出SOTA表现, 包括将GLUE基准推至更高的80.4%(改进了7.6%), MultiNLI准确率达到了86.7%(改进了5.6%), 成为NLP发展史上里程碑
winner888115 天前
人工智能·gpt·bert·encoder·decoder
从 BERT 到 GPT:Encoder 的 “全局视野” 如何喂饱 Decoder 的 “逐词纠结”在深度学习领域,Encoder(编码器)与Decoder(解码器)是序列处理任务的核心组件,二者通过不同的注意力机制设计,形成了“理解-生成”的黄金搭档。本文从基础功能、注意力机制差异、典型案例及工程实践等维度,解析这对架构的核心设计逻辑。
滴水成川17 天前
人工智能·深度学习·bert
基于 BERT 微调一个意图识别(Intent Classification)模型基于 BERT 微调一个意图识别(Intent Classification)模型,你的意图类别包括:
背太阳的牧羊人17 天前
人工智能·bert·embedding
OpenAI Embedding 和密集检索(如 BERT/DPR)进行语义相似度搜索有什么区别和联系OpenAI Embedding 和密集检索(如 BERT/DPR)其实是“同一种思想的不同实现”,它们都属于Dense Retrieval(密集向量检索),只不过使用的模型、部署方式和调用方式不同。
ai大模型木子21 天前
人工智能·自然语言处理·bert·embedding·word2vec·ai大模型·大模型资料
嵌入模型(Embedding Models)原理详解:从Word2Vec到BERT的技术演进嵌入模型(Embedding Models) 是一种将高维离散数据(如文本、图像)转换为低维连续向量表示的技术。这些向量能够反映数据的语义关系,使得“语义相近的实体在向量空间中距离更近”。例如:
W流沙W22 天前
人工智能·bert
bert学习Google在2018年提出的预训练语言模型,通过双向Transformer结构和大规模预训练。与传统模型(如LSTM或单向Transformer)不同,BERT通过同时考虑单词的左右上下文来捕捉更丰富的语义信息。例如,对句子“银行存钱”,BERT能结合“银行”和“存钱”双向理解词义。
艾醒(AiXing-w)24 天前
语言模型·bert·transformer
探索大语言模型(LLM):Transformer 与 BERT从原理到实践在自然语言处理(NLP)的发展历程中,Transformer 和 BERT 无疑是具有里程碑意义的技术。它们的出现,彻底改变了 NLP 领域的研究和应用格局。本文将深入探讨 Transformer 和 BERT 的背景、核心公式推导,并提供代码实现,帮助大家更好地理解和应用这两项技术。
L_cl25 天前
人工智能·自然语言处理·bert
【NLP 68、R-BERT】为什么划掉你的名字,为什么不敢与你对视—— 25.4.21R-BERT(Relation BERT)是一种用于关系抽取(Relation Extraction)任务的模型,它结合了预训练语言模型 BERT(Bidirectional Encoder Representations from Transformers)的强大语言理解能力,在关系抽取领域取得了较好的效果。
L_cl25 天前
人工智能·自然语言处理·bert
【NLP 69、KG - BERT】人们总是在无能为力的时候喜欢说顺其自然—— 25.4.21将知识图谱中的三元组(头实体-关系-尾实体)转化为文本序列,利用BERT的上下文理解能力进行知识图谱补全任务(如三元组分类、链接预测)。
Listennnn1 个月前
人工智能·gpt·自然语言处理·bert
GPT,Bert类模型对比以下是对 BERT-base、RoBERTa-base、DeBERTa-base 和 DistilBERT-base 四个模型在参数量、训练数据、GPU 内存占用、性能表现以及优缺点方面的对比: