bert

J_Xiong01172 天前
分类·bert
【NLUs篇】01:JointBERT:用于联合意图分类和槽位填充的 BERT 模型该论文的模型实现逻辑清晰,属于典型的“预训练+微调”范式。BERT 编码器:任务分支 1:意图分类 (Intent Classification)
海天一色y3 天前
人工智能·深度学习·bert
短文本自动分类投递项目用户在众多新闻资讯中, ⼀定有更感兴趣的类别. 比如男生的历史, 军事, 足球等,⼥⽣的财经, ⼋卦, 美妆等. 如果能将用户更感兴趣的类别新闻主动筛选出来, 并进行推荐阅读, 那么点击量, 订阅量, 付费量都会有明显增长。将短文本自动进行多分类, 然后像快递⼀样的"投递"到对应的"频道"中, 因此本项目应运而生。
黑客思维者3 天前
自然语言处理·架构·bert
BERT 双向编码器架构在自然语言处理领域的潜力与优势分析BERT(Bidirectional Encoder Representations from Transformers)是 Google 于 2018 年提出的双向编码器架构,彻底变革了自然语言处理(NLP)领域。本文深入分析了 BERT 在核心 NLP 任务中的学术潜力与核心优势。BERT 通过创新的掩码语言模型(MLM)预训练策略,实现了真正意义上的双向语境理解,能够同时利用左右上下文信息学习语言表示。实验数据证明,BERT 在 11 项 NLP 任务中取得了突破性成果:将 GLUE 基准分数提升至
盼小辉丶5 天前
深度学习·语言模型·bert·生成模型
生成模型实战 | BERT详解与实现BERT (Bidirectional Encoder Representations from Transformers) 是 Google 在提出的预训练语言模型,它通过 Transformer 编码器结构和掩码语言模型 (Masked Language Model, MLM) 任务,实现了真正的双向上下文理解。在本节中,我们将学习如何从零开始训练自编码语言模型。训练过程包括模型的预训练和针对特定任务的训练。首先,学习 BERT (Bidirectional Encoder Representatio
七宝大爷5 天前
架构·bert·transformer
Transformer架构变体全景图:从BERT到GPT的演化路径2017年,Vaswani等人发表的《Attention is All You Need》论文提出了Transformer架构,彻底改变了自然语言处理领域的发展轨迹。最初的Transformer采用编码器-解码器结构,为机器翻译任务而设计。然而,在随后的发展中,研究人员发现这种架构的各个组件具有独立的实用价值,从而衍生出三大主流技术路线:仅编码器架构、仅解码器架构和编码器-解码器架构。
cg50179 天前
人工智能·深度学习·bert
基于 Bert 基本模型进行 Fine-tuned实验任务 微调 Bert 基础模型让其实现情感二分类,使用的数据集为 sst-2,其数据结构如下所示。
做cv的小昊9 天前
论文阅读·人工智能·计算机视觉·语言模型·自然语言处理·bert·transformer
VLM经典论文阅读:【综述】An Introduction to Vision-Language Modeling近年来,语言建模领域取得了令人瞩目的进展。许多大型语言模型(LLM)(如Llama或ChatGPT)如今已能解决种类繁多的任务,其应用正日益普及。这些原本主要局限于文本输入的模型,现已扩展至具备视觉输入能力。将视觉与语言相连将解锁众多应用,而这些应用正是当前基于人工智能的技术革命之关键。尽管已有若干工作将大型语言模型扩展至视觉领域,但语言与视觉的连接问题尚未得到彻底解决。例如,若无依赖额外数据标注的复杂工程辅助,大多数模型在理解空间关系或计数方面仍显吃力。许多视觉语言模型(VLM)也缺乏对属性和顺序的理解
Lian_Ge_Blog9 天前
bert
attention、transform、bert 复习总结 1
极客BIM工作室12 天前
人工智能·自然语言处理·bert
BERT模型中词汇表向量与网络权重:从属关系与不可替代的功能分工在NLP领域,BERT模型的“词汇表”和“网络权重”是两个高频出现的概念,但不少开发者在实践中会陷入一个误区:将二者视为独立模块,甚至认为“用其他网络权重替代词汇表也能工作”。事实上,词汇表向量(嵌入层参数)是网络权重的“子集”,并非两回事,但二者功能分工完全不同,因此绝不能用其他网络权重替代词汇表——前者负责“将离散Token映射为连续语义向量”(语义理解的基础载体),后者负责“加工语义向量、捕捉上下文依赖”(语义理解的核心处理器),二者缺一不可,共同构成BERT的语义学习能力。
极客BIM工作室13 天前
人工智能·机器学习·bert
理清 BERT 中 [CLS] 向量的核心逻辑:训练双向更新与推理作用不矛盾在学习 BERT 模型的过程中,很多人会对 [CLS] 向量产生一个关键疑问:训练时它既要向 “负面情感空间” 调整,又要向 “正面情感空间” 调整,这种 “双向更新” 难道不会冲突吗?推理时它又为何能精准判断情感倾向?其实,这一点也不矛盾,核心逻辑在于:训练时 [CLS] 不是被 “掰成两个固定向量”,而是学会了 “根据上下文动态调整向量方向的通用能力”,推理时正是依靠这种能力实现精准判断,作用巨大。今天咱们就从四个维度,彻底把这个问题讲清楚。
极客BIM工作室14 天前
gpt·bert·transformer
从Transformer的Encoder与Decoder,到BERT和GPT的独立王国在自然语言处理(NLP)的技术版图中,Transformer架构无疑是一座里程碑。它的Encoder(编码器)与Decoder(解码器)模块不仅在机器翻译等任务中协同作战,更衍生出了Encoder-only的BERT和Decoder-only的GPT这样的“独立王者”。今天,我们就来深度拆解它们的架构、作用,以及BERT和GPT如何各自在“理解”与“生成”的赛道上封神。
大明者省14 天前
人工智能·深度学习·bert
BERT/ViT 模型核心参数 + 实际编码案例表一、BERT 与 ViT 模型核心参数表对比维度BERT 模型(文本编码器)ViT 模型(图像编码器)
Paraverse_徐志斌15 天前
人工智能·pytorch·python·bert·transformer
基于 PyTorch + BERT 意图识别与模型微调意图识别(Intent Detection)是自然语言处理(Natural Language Processing,NLP)的一个子模块。意图识别说大白话就是:能够理解提炼用户输入的内容最终目的、意图是什么,能够从用户的自然语言中理解他到底想要做什么!所以通常我们会先进行意图分类定义,就那绩效业务来说,一般会定义:
HaiLang_IT17 天前
网络安全·bert·恶意请求检测
【信息安全毕业设计】基于Bert和BiLSTM的Web应用安全防护系统研究随着互联网技术的迅猛发展,Web应用已成为人们日常生活和工作中不可或缺的重要组成部分。然而,伴随Web应用普及而来的是日益严峻的网络安全威胁,恶意请求是指含有攻击代码的HTTP请求,攻击者通过在请求报文中注入恶意代码,如SQL注入语句、跨站脚本(XSS)代码、命令注入等,对Web服务器进行攻击。这些攻击可能导致数据泄露、服务中断、系统宕机等严重后果。最新的网络安全报告显示,超过85%的Web应用漏洞可以通过恶意请求触发,因此如何快速、高效地检测Web恶意请求已成为网络安全领域的研究热点。
盼小辉丶18 天前
深度学习·语言模型·bert·transformer
Transformer实战(26)——通过领域适应提升Transformer模型性能我们已经使用经典 Tansformer 模型解决了许多任务,但我们可以通过利用特定的技术来进一步提高模型性能。有多种方法可以提升 Transformer 模型的性能,在节中,我们将介绍如何通过领域适应技术将模型性能提升到超越普通训练流程的水平。领域适应是一种提高 Transformer 模型性能的方法,由于大语言模型是在通用和多样化的文本上进行训练的,因此在应用于特定领域时,可能会存在一定的差异,我们可能需要根据特定的应用领域调整这些语言模型,并考虑多种因素。
bst@微胖子20 天前
人工智能·深度学习·bert
ModelScope微调模型这里的数据集和模型我们都从魔塔社区上取。数据集:模型:调试有问题,后续摸索这个webui的界面使用。推理里面有些交互命令,最好是使用终端来执行,客户输入交互命令。
宇若-凉凉20 天前
人工智能·深度学习·bert
BERT 完整教程指南BERT (Bidirectional Encoder Representations from Transformers) 是一个基于 Transformer 架构的预训练语言模型,它开启了 NLP 的预训练时代,是深度学习在自然语言处理领域的里程碑。
九年义务漏网鲨鱼21 天前
人工智能·深度学习·bert
【多模态大模型面经】 BERT 专题面经🧔 这里是九年义务漏网鲨鱼,研究生在读,主要研究方向是人脸伪造检测,长期致力于研究多模态大模型技术;国家奖学金获得者,国家级大创项目一项,发明专利一篇,多篇论文在投,蓝桥杯国家级奖项、妈妈杯一等奖。 ✍ 博客主要内容为大模型技术的学习以及相关面经,本人已得到B站、百度、唯品会等多段多模态大模型的实习offer,为了能够紧跟前沿知识,决定写一个“从零学习 RL”主题的专栏。这个专栏将记录我个人的主观学习过程,因此会存在错误,若有出错,欢迎大家在评论区帮助我指出。除此之外,博客内容也会分享一些我在本科期间的
Danceful_YJ22 天前
人工智能·深度学习·bert
35.微调BERT
Danceful_YJ23 天前
人工智能·深度学习·bert
34.来自Transformers的双向编码器表示(BERT)