技术栈
bert
大明者省
5 小时前
人工智能
·
深度学习
·
bert
BERT/ViT 模型核心参数 + 实际编码案例表
一、BERT 与 ViT 模型核心参数表对比维度BERT 模型(文本编码器)ViT 模型(图像编码器)
Paraverse_徐志斌
13 小时前
人工智能
·
pytorch
·
python
·
bert
·
transformer
基于 PyTorch + BERT 意图识别与模型微调
意图识别(Intent Detection)是自然语言处理(Natural Language Processing,NLP)的一个子模块。意图识别说大白话就是:能够理解提炼用户输入的内容最终目的、意图是什么,能够从用户的自然语言中理解他到底想要做什么!所以通常我们会先进行意图分类定义,就那绩效业务来说,一般会定义:
HaiLang_IT
3 天前
网络安全
·
bert
·
恶意请求检测
【信息安全毕业设计】基于Bert和BiLSTM的Web应用安全防护系统研究
随着互联网技术的迅猛发展,Web应用已成为人们日常生活和工作中不可或缺的重要组成部分。然而,伴随Web应用普及而来的是日益严峻的网络安全威胁,恶意请求是指含有攻击代码的HTTP请求,攻击者通过在请求报文中注入恶意代码,如SQL注入语句、跨站脚本(XSS)代码、命令注入等,对Web服务器进行攻击。这些攻击可能导致数据泄露、服务中断、系统宕机等严重后果。最新的网络安全报告显示,超过85%的Web应用漏洞可以通过恶意请求触发,因此如何快速、高效地检测Web恶意请求已成为网络安全领域的研究热点。
盼小辉丶
4 天前
深度学习
·
语言模型
·
bert
·
transformer
Transformer实战(26)——通过领域适应提升Transformer模型性能
我们已经使用经典 Tansformer 模型解决了许多任务,但我们可以通过利用特定的技术来进一步提高模型性能。有多种方法可以提升 Transformer 模型的性能,在节中,我们将介绍如何通过领域适应技术将模型性能提升到超越普通训练流程的水平。领域适应是一种提高 Transformer 模型性能的方法,由于大语言模型是在通用和多样化的文本上进行训练的,因此在应用于特定领域时,可能会存在一定的差异,我们可能需要根据特定的应用领域调整这些语言模型,并考虑多种因素。
bst@微胖子
6 天前
人工智能
·
深度学习
·
bert
ModelScope微调模型
这里的数据集和模型我们都从魔塔社区上取。数据集:模型:调试有问题,后续摸索这个webui的界面使用。推理里面有些交互命令,最好是使用终端来执行,客户输入交互命令。
宇若-凉凉
6 天前
人工智能
·
深度学习
·
bert
BERT 完整教程指南
BERT (Bidirectional Encoder Representations from Transformers) 是一个基于 Transformer 架构的预训练语言模型,它开启了 NLP 的预训练时代,是深度学习在自然语言处理领域的里程碑。
九年义务漏网鲨鱼
7 天前
人工智能
·
深度学习
·
bert
【多模态大模型面经】 BERT 专题面经
🧔 这里是九年义务漏网鲨鱼,研究生在读,主要研究方向是人脸伪造检测,长期致力于研究多模态大模型技术;国家奖学金获得者,国家级大创项目一项,发明专利一篇,多篇论文在投,蓝桥杯国家级奖项、妈妈杯一等奖。 ✍ 博客主要内容为大模型技术的学习以及相关面经,本人已得到B站、百度、唯品会等多段多模态大模型的实习offer,为了能够紧跟前沿知识,决定写一个“从零学习 RL”主题的专栏。这个专栏将记录我个人的主观学习过程,因此会存在错误,若有出错,欢迎大家在评论区帮助我指出。除此之外,博客内容也会分享一些我在本科期间的
Danceful_YJ
8 天前
人工智能
·
深度学习
·
bert
35.微调BERT
Danceful_YJ
9 天前
人工智能
·
深度学习
·
bert
34.来自Transformers的双向编码器表示(BERT)
少林码僧
12 天前
人工智能
·
gpt
·
ai
·
大模型
·
bert
·
transformer
·
1024程序员节
2.3 Transformer 变体与扩展:BERT、GPT 与多模态模型
在深度学习与自然语言处理领域,Transformer 架构无疑是最具革命性的突破之一。自从2017年 Vaswani 等人提出原始 Transformer 模型以来,各种基于 Transformer 的变体如雨后春笋般涌现,彻底改变了自然语言处理的格局。
c0d1ng
14 天前
人工智能
·
学习
·
bert
自建督学习——BERT(第二十二周周报)
本文系统性地介绍了BERT模型的核心机制与应用。首先,文章阐述了BERT的预训练方法,重点是其核心任务——掩码语言模型,通过预测被掩盖的词汇使模型学习上下文信息,并提及了“下一句预测”任务的局限性及改进方案。其次,文章详细展示了将预训练BERT适配到四大下游任务的范式:文本分类、序列标注、句子对分类以及机器阅读理解,其通用模式是在BERT顶部添加一个简单的任务特定层进行微调。最后,文章探讨了BERT成功的关键在于其能根据上下文生成动态的词向量以区分多义词,但也通过实验指出,BERT的强大表现可能部分源于其
hans汉斯
17 天前
大数据
·
人工智能
·
深度学习
·
算法
·
自然语言处理
·
bert
·
去噪
【计算机科学与应用】基于BERT与DeepSeek大模型的智能舆论监控系统设计
本研究基于BERT模型与DeepSeek大模型,构建了一个智能舆情监测系统。该系统总体架构分为数据采集层、情感分析层、可视化交互层和智能报告层,技术实现上融合了微调BERT模型、Tkinter图形界面以及多源API集成。数据流程涵盖从光明网、Coze等多平台舆情信息采集,到基于公司金融领域微调BERT模型的情感自动标注,再到多维度数据可视化与DeepSeek生成的智能舆情分析报告。系统功能集成舆情动态抓取、情感分类、可视化展示与报告生成四大模块,实现了从数据获取到决策建议的全流程自动化。该系统的建设为舆情
赴335
24 天前
自然语言处理
·
bert
·
transformer
自然语言处理框架:Bert和Transformer
目录1.bert框架的重要性及其应用场景2.为何从LSTM转向Transform3.Transform的基本结构
Ellenjing
1 个月前
分类
·
bert
·
transformer
从 Transformer 理论到文本分类:BERT 微调实战总结
Transformer 模型自《Attention Is All You Need》提出以来,已成为 NLP 的基石架构。 BERT 作为双向 Transformer 编码器的代表,通过双向编码 与 Masked LM + NSP 预训练目标,更成为行业应用任务的标准起点:
X.AI666
1 个月前
人工智能
·
深度学习
·
bert
YouTube评论情感分析项目84%正确率:基于BERT的实战复现与原理解析

2018 年,人工智能领域发生了一场意义深远的技术革命。在这一年,两个基于 Transformer 架构的模型相继问世,它们不仅彻底改变了自然语言处理(NLP)的研究范式,更开启了 AI 发展的新纪元。这两个模型就是 OpenAI 在 6 月发布的GPT-1和 Google 在 10 月推出的BERT。虽然它们都采用了 Transformer 架构,但在技术路线上却选择了截然不同的方向:GPT-1 专注于生成任务,而 BERT 则聚焦于理解任务。这场 "范式之争" 不仅展现了两种不同的技术哲学,更共同推动
deephub
1 个月前
人工智能
·
深度学习
·
语言模型
·
bert
·
transformer
深入BERT内核:用数学解密掩码语言模型的工作原理
传统语言模型有个天生缺陷——只能从左往右读,就像你现在读这段文字一样,一个词一个词往下看,完全不知道后面会出现什么。人类可不是这么学语言的。看到"被告被判**_**“,大脑会根据上下文直接联想到"有罪"或者"无罪”,这就是双向理解在起作用。
PKNLP
1 个月前
人工智能
·
深度学习
·
bert
BERT系列模型
BERT是2018年10月由Google AI研究院提出的一种预训练模型.总体架构: 如下图所示, 最左边的就是BERT的架构图, 可以很清楚的看到BERT采用了Transformer Encoder block进行连接, 因为是一个典型的双向编码模型.
来酱何人
1 个月前
人工智能
·
深度学习
·
分类
·
nlp
·
bert
实时NLP数据处理:流数据的清洗、特征提取与模型推理适配
在大数据与AI融合的场景中,日志、用户评论等流数据具备实时性强、噪声密集、价值密度低的特点,传统离线NLP处理模式已无法满足实时决策需求(如实时舆情监控、智能客服响应)。本文聚焦流数据的实时NLP全流程,从数据清洗、特征提取到模型推理适配,拆解技术要点与实践方案。 一、实时流数据的核心挑战 日志(如系统操作日志、APP行为日志)与用户评论(如电商评价、社交留言)作为典型流数据,在处理中需突破三大核心难点: - 实时性要求高:数据以毫秒/秒级持续产生,需在秒级内完成处理(如评论违规实时拦截需≤1秒); -
空白到白
1 个月前
人工智能
·
gpt
·
自然语言处理
·
bert
BERT,GPT,ELMO模型对比
Embedding层三维融合:Token Embeddings:词汇编码,包含[CLS]和[SEP]特殊标记