bert

丁学文武3 天前
人工智能·语言模型·nlp·bert·roberta·大模型应用·encoder-only
大模型原理与实践:第三章-预训练语言模型详解_第1部分-Encoder-only(BERT、RoBERTa、ALBERT)第一章 NLP基础概念完整指南第二章 Transformer 架构原理第三章 预训练语言模型第四章 大语言模型
fyakm6 天前
自然语言处理·bert·embedding
词向量:从 One-Hot 到 BERT Embedding,NLP 文本表示的核心技术在自然语言处理(NLP)领域,“让计算机理解文本” 的第一步,是将人类可读的文字转化为机器可计算的数值形式 —— 这就是文本表示的核心目标。而词向量(Word Embedding)作为文本表示的基础单元,直接决定了后续 NLP 任务(如文本分类、机器翻译、情感分析)的效果上限。从早期的 One-Hot 编码到如今的预训练词向量(如 BERT Embedding),词向量技术已完成从 “离散稀疏” 到 “连续稠密” 的跨越式发展。本文将以技术演进为主线,从原理、模型、实践到进阶方向,全面解析词向量的核心技术
星川皆无恙7 天前
大数据·人工智能·深度学习·bert·知识图谱
知识图谱之深度学习:基于 BERT+LSTM+CRF 驱动深度学习识别模型医疗知识图谱问答可视化分析系统知识图谱是将知识连接起来形成的一个网络。由节点和边组成,节点是实体,边是两个实体的关系,节点和边都可以有属性。知识图谱除了可以查询实体的属性外,还可以很方便的从一个实体通过遍历关系的方式找到相关的实体及属性信息。
无妄无望8 天前
人工智能·深度学习·bert
解码器系列(1)BERT论文地址:BERT 代码地址:bert我们提出了一种新的语言表示模型,称为 BERT,其全称是来自 Transformers 的双向编码器表示。与近期的语言表示模型(Peters 等人,2018a;Radford 等人,2018)不同,BERT 旨在通过在所有层中联合调节左右上下文,从无标注文本中预训练深度双向表示。因此,预训练好的 BERT 模型只需添加一个额外的输出层进行微调,即可为广泛的任务(如问答和语言推理)创建最先进的模型,而无需对任务特定的架构进行大量修改。
苏苏susuus8 天前
人工智能·自然语言处理·bert
NLP:讲解Bert模型的变体现在,再系统梳理一下这些重要的变体,看看它们是如何在巨人肩膀上更进一步的。我们可以将这些变体分为几个主要的演进方向:
苏苏susuus9 天前
人工智能·自然语言处理·bert
NLP:关于Bert模型的基础讲解在BERT出现之前,主流的语言模型(如RNN、LSTM)在处理文本时,通常是单向的——从左到右或从右到左地阅读句子。
冰糖猕猴桃10 天前
人工智能·自然语言处理·nlp·bert·pooler_output
【AI】详解BERT的输出张量pooler_output在介绍pooler_output之前我们先看一个简单的文本分类的案例:在前向传播的过程中我们使用了 outputs.pooler_output ,为什么这样用呢?下面我们先通俗的介绍什么是pooler_output,再详细聊pooler_output是怎么来的,为什么用pooler_output。
热爱生活的猴子10 天前
人工智能·分类·bert
使用bert或roberta模型做分类训练时,分类数据不平衡时,可以采取哪些优化的措施在使用 BERT、RoBERTa 等预训练语言模型进行文本分类时,若训练数据中各类别样本数量严重不均衡(如 95% 正例、5% 负例),模型容易偏向多数类,导致对少数类识别能力差。需从数据、模型、训练、评估四个维度综合优化。
兔兔爱学习兔兔爱学习12 天前
人工智能·深度学习·bert
大模型之bert变种原论文链接: https://arxiv.org/pdf/1907.11692.pdfRoBERTa 的全称是 Robustly optimized BERT approach。
正经人_x12 天前
人工智能·学习·bert
学习日记19:GRAPH-BERT图神经网络由于过于依赖节点之间的连接信息,会导致停滞问题(学不进去新东西)和过平滑问题(所有节点的特征变得差不多)。更主要的是由于图的相互关联特征导致无法进行并行计算,这限制了处理大型图。文章提出了一个叫做GRAPH-BERT的模型,仅仅使用注意力机制,不需要输入完整的大图,只使用局部上下文中采样使用的无连接子图来进行训练。经过预训练的GRAPH-BERT经过简单的微调就可以迁移到具体任务上。
让我看看好学吗13 天前
人工智能·深度学习·aigc·bert·产品经理
AI产品经理项目实战:BERT语义分析识别重复信息企业每天都会接收海量的客户建议、反馈及信息数据。这些数据中,大量重复或高度相似的内容不仅会占用冗余的存储资源,更会导致相关工作人员在处理时做无用功、决策层难以快速捕捉核心需求,严重影响业务效率与客户体验。
钝挫力PROGRAMER24 天前
人工智能·gpt·bert
GPT与BERT BGEGPT(Generative Pre-trained Transformer,生成式预训练变换器)是由OpenAI开发的一系列基于Transformer架构的自然语言处理模型。它通过大规模无监督预训练学习语言统计规律,并能生成连贯、自然的文本,广泛应用于文本创作、对话系统、问答、翻译、摘要生成等多个领域。目前国内主流大模型(如 DeepSeek、通义千问、腾讯混元、文心一言、豆包 等)与 GPT 系列(如 GPT-4)相比,在技术、性能和应用场景上各有优劣。国产模型更侧重中文语境、行业数据(如金融、医疗)
minhuan1 个月前
人工智能·语言模型·自然语言处理·bert·ai大模型·rag
构建AI智能体:二十八、大语言模型BERT:原理、应用结合日常场景实践全面解析BERT(Bidirectional Encoder Representations from Transformers)是谷歌在2018年发布的自然语言处理模型,它彻底改变了NLP领域的发展轨迹。在BERT出现之前,主流模型如Word2Vec只能提供静态的词向量表示,这些方法虽然解决了词汇的分布式表示问题,但无法处理一词多义和复杂的上下文信息。例如,"苹果"这个词在不同语境中既可能指水果,也可能指科技公司,传统模型无法区分这种差异。
2401_828890641 个月前
人工智能·python·自然语言处理·bert·transformer
使用 BERT 实现意图理解和实体识别
idealmu1 个月前
人工智能·深度学习·bert
知识蒸馏(KD)详解一:认识一下BERT 模型简单来说,BERT其实就是一个预训练模型,是一个文本特征提取器。它的核心思想: 第一,就是在一个很大的预料库上进行预训练,得到语言的表征的一个预训练模型; 第二,下游在接一个具体任务的一些层,如文本分类、情感识别、问答等,和这个预训练模型进行一起微调训练,进而实现具体的任务。 论文参考:https://arxiv.org/pdf/1810.04805
XISHI_TIANLAN1 个月前
学习·bert·embedding
【多模态学习】Q&A3:FFN的作用?Embedding生成方法的BERT和Word2Vec?非线性引入的作用?在Transformer中,FFN(Feed-Forward Network,前馈神经网络) 是一个至关重要却又常常被低估的组件。如果说Self-Attention的作用是混合信息(让序列中的每个token都能关注到所有其他token),那么FFN的作用就是加工和提炼这些信息,可以把它理解为Transformer的“记忆和推理中心”。
THMAIL1 个月前
python·随机森林·机器学习·分类·bootstrap·bert·transformer
机器学习从入门到精通 - Transformer颠覆者:BERT与预训练模型实战解析开场白:点燃你的NLP革命之火朋友们,如果你还在用RNN、LSTM和GRU吭哧吭哧地处理文本任务,看着那缓慢的训练速度和捉襟见肘的长程依赖建模能力发愁——停!是时候拥抱颠覆者了。Transformer,这个2017年横空出世的架构,彻底重塑了自然语言处理的格局。而站在巨人肩膀上的BERT及其引发的大规模预训练模型浪潮,则直接让NLP进入了“工业化生产”时代。这篇长文不是蜻蜓点水的概念介绍,我们要撸起袖子,深入BERT的骨髓,从理论推导到代码实战,亲手搭建、训练、微调,并直面那些官方文档很少提及的“坑”。准
THMAIL1 个月前
人工智能·python·深度学习·自然语言处理·性能优化·bert
深度学习从入门到精通 - BERT与预训练模型:NLP领域的核弹级技术详解各位,想象一下:你只需要给计算机丢进去一堆杂乱无章的文本,它就能自己学会理解语言的含义、情感甚至逻辑推理。几年前这还像科幻小说,今天却是实实在在改变我们生活的技术。驱动这场革命的核弹头,名字就叫 BERT。这篇长文,咱不玩虚的,掰开揉碎讲明白BERT和预训练模型(Pre-trained Models, PTMs)到底怎么回事儿,为啥它们是NLP领域的game changer,以及——那些让我熬了无数个通宵的坑,你绝对不想再踩一次。准备好了吗?咱们这就出发,从"为啥需要这玩意儿"开始,直捣黄龙!
啦啦啦在冲冲冲1 个月前
人工智能·深度学习·bert
解释一下roberta,bert-chinese和bert-case有啥区别还有bert-large这些BERT 是一个基础模型,后续很多模型都是在它的基础上进行改进或针对特定场景进行训练的。它的核心思想是:
荔枝吻1 个月前
人工智能·python·bert
【AI总结】Python BERT 向量化入门指南Tips:照着流程图一步一步敲,零深度学习背景也能跑通!验证安装:生产环境直接替换成 df['comment'].tolist() 即可,无需分词、去停用词!