技术栈
bert
c0d1ng
5 小时前
人工智能
·
学习
·
bert
自建督学习——BERT(第二十二周周报)
本文系统性地介绍了BERT模型的核心机制与应用。首先,文章阐述了BERT的预训练方法,重点是其核心任务——掩码语言模型,通过预测被掩盖的词汇使模型学习上下文信息,并提及了“下一句预测”任务的局限性及改进方案。其次,文章详细展示了将预训练BERT适配到四大下游任务的范式:文本分类、序列标注、句子对分类以及机器阅读理解,其通用模式是在BERT顶部添加一个简单的任务特定层进行微调。最后,文章探讨了BERT成功的关键在于其能根据上下文生成动态的词向量以区分多义词,但也通过实验指出,BERT的强大表现可能部分源于其
hans汉斯
3 天前
大数据
·
人工智能
·
深度学习
·
算法
·
自然语言处理
·
bert
·
去噪
【计算机科学与应用】基于BERT与DeepSeek大模型的智能舆论监控系统设计
本研究基于BERT模型与DeepSeek大模型,构建了一个智能舆情监测系统。该系统总体架构分为数据采集层、情感分析层、可视化交互层和智能报告层,技术实现上融合了微调BERT模型、Tkinter图形界面以及多源API集成。数据流程涵盖从光明网、Coze等多平台舆情信息采集,到基于公司金融领域微调BERT模型的情感自动标注,再到多维度数据可视化与DeepSeek生成的智能舆情分析报告。系统功能集成舆情动态抓取、情感分类、可视化展示与报告生成四大模块,实现了从数据获取到决策建议的全流程自动化。该系统的建设为舆情
赴335
10 天前
自然语言处理
·
bert
·
transformer
自然语言处理框架:Bert和Transformer
目录1.bert框架的重要性及其应用场景2.为何从LSTM转向Transform3.Transform的基本结构
Ellenjing
12 天前
分类
·
bert
·
transformer
从 Transformer 理论到文本分类:BERT 微调实战总结
Transformer 模型自《Attention Is All You Need》提出以来,已成为 NLP 的基石架构。 BERT 作为双向 Transformer 编码器的代表,通过双向编码 与 Masked LM + NSP 预训练目标,更成为行业应用任务的标准起点:
X.AI666
12 天前
人工智能
·
深度学习
·
bert
YouTube评论情感分析项目84%正确率:基于BERT的实战复现与原理解析

2018 年,人工智能领域发生了一场意义深远的技术革命。在这一年,两个基于 Transformer 架构的模型相继问世,它们不仅彻底改变了自然语言处理(NLP)的研究范式,更开启了 AI 发展的新纪元。这两个模型就是 OpenAI 在 6 月发布的GPT-1和 Google 在 10 月推出的BERT。虽然它们都采用了 Transformer 架构,但在技术路线上却选择了截然不同的方向:GPT-1 专注于生成任务,而 BERT 则聚焦于理解任务。这场 "范式之争" 不仅展现了两种不同的技术哲学,更共同推动
deephub
16 天前
人工智能
·
深度学习
·
语言模型
·
bert
·
transformer
深入BERT内核:用数学解密掩码语言模型的工作原理
传统语言模型有个天生缺陷——只能从左往右读,就像你现在读这段文字一样,一个词一个词往下看,完全不知道后面会出现什么。人类可不是这么学语言的。看到"被告被判**_**“,大脑会根据上下文直接联想到"有罪"或者"无罪”,这就是双向理解在起作用。
PKNLP
16 天前
人工智能
·
深度学习
·
bert
BERT系列模型
BERT是2018年10月由Google AI研究院提出的一种预训练模型.总体架构: 如下图所示, 最左边的就是BERT的架构图, 可以很清楚的看到BERT采用了Transformer Encoder block进行连接, 因为是一个典型的双向编码模型.
来酱何人
16 天前
人工智能
·
深度学习
·
分类
·
nlp
·
bert
实时NLP数据处理:流数据的清洗、特征提取与模型推理适配
在大数据与AI融合的场景中,日志、用户评论等流数据具备实时性强、噪声密集、价值密度低的特点,传统离线NLP处理模式已无法满足实时决策需求(如实时舆情监控、智能客服响应)。本文聚焦流数据的实时NLP全流程,从数据清洗、特征提取到模型推理适配,拆解技术要点与实践方案。 一、实时流数据的核心挑战 日志(如系统操作日志、APP行为日志)与用户评论(如电商评价、社交留言)作为典型流数据,在处理中需突破三大核心难点: - 实时性要求高:数据以毫秒/秒级持续产生,需在秒级内完成处理(如评论违规实时拦截需≤1秒); -
空白到白
16 天前
人工智能
·
gpt
·
自然语言处理
·
bert
BERT,GPT,ELMO模型对比
Embedding层三维融合:Token Embeddings:词汇编码,包含[CLS]和[SEP]特殊标记
空白到白
16 天前
人工智能
·
自然语言处理
·
bert
BERT-微调任务
微调任务:完形填空任务(MLM) + NSP任务NLP数据集:标准评估数据集介绍BERT模型:核心原理与架构详解
来酱何人
18 天前
人工智能
·
深度学习
·
分类
·
nlp
·
bert
低资源NLP数据处理:少样本/零样本场景下数据增强与迁移学习结合方案
摘要 在自然语言处理(NLP)领域,低资源场景(少样本/零样本)因标注数据稀缺,成为模型性能提升的核心瓶颈。本文提出将数据增强技术与迁移学习框架深度结合的解决方案,通过数据增强扩充样本多样性、迁移学习复用预训练知识,形成“数据扩容-知识迁移-模型适配”的闭环。实验表明,该方案在情感分析、命名实体识别等低资源任务中,可使模型F1值提升8%-15%,为低资源NLP任务提供高效可行的技术路径。 一、低资源NLP场景的核心挑战 低资源NLP任务主要分为两类:少样本学习(Few-Shot Learning) 指目标
来酱何人
21 天前
人工智能
·
分类
·
nlp
·
bert
·
机器翻译
机器翻译数据处理核心技术:从语料到模型的质量管控链路
机器翻译(MT)系统的性能,本质上由“数据质量”与“模型架构”共同决定。在Transformer等主流模型架构趋于成熟的当下,高质量双语语料成为拉开性能差距的关键。而双语语料清洗、句子长度过滤、领域术语一致性维护,是构建“高纯净度、高适配性、高专业性”语料库的三大核心环节,直接影响模型对双语语义映射关系的学习效果。 一、双语语料清洗:筑牢数据质量根基 原始双语语料(如网络爬取数据、平行语料库)中普遍存在噪声,包括非平行句对、语义偏差句对、垃圾信息等。清洗的核心目标是剔除噪声,保留“语义对等、表达规范”的有
闲看云起
23 天前
论文阅读
·
人工智能
·
深度学习
·
语言模型
·
自然语言处理
·
bert
Bert:从“读不懂上下文”的AI,到真正理解语言
你有没有遇到过这种情况:朋友发来一句:“他走了。” 你一脸懵:走了?是出门了?还是分手了?还是……去世了?
一车小面包
23 天前
人工智能
·
深度学习
·
bert
BERT 中文外卖评价情感分析项目
随着外卖行业的发展,用户在平台上留下的评价数据具有极高的商业价值。 通过对这些文本进行情感分析,可以帮助平台:
一车小面包
25 天前
自然语言处理
·
bert
BERT相关知识自测
BERT 在预训练阶段使用两个无监督任务:Masked Language Model (MLM) —— 掩码语言模型
2401_84149564
25 天前
人工智能
·
python
·
自然语言处理
·
bert
·
文本预处理
·
特征提取
·
训练验证
【自然语言处理】“bert-base-chinese”的基本用法及实战案例
目录一、引言二、基础用法:模型加载与分词(一)核心库与工具(二)代码分步解析1. 下载模型到本地2. 加载分词器(文本→模型输入格式转换)
新兴ICT项目支撑
1 个月前
人工智能
·
分类
·
bert
BERT文本分类超参数优化实战:从13小时到83秒的性能飞跃
关键成果: 通过系统化的超参数优化,将BERT文本分类训练时间从13.1小时压缩到83秒,性能提升568倍,显存占用从97%优化到66%,准确率基本持平。本文详细记录了完整的优化过程,提供可复现的方法论。
2401_84149564
1 个月前
gpt
·
语言模型
·
自然语言处理
·
bert
·
transformer
·
大语言模型
·
预训练
预训练基础模型简介
目录一、引言二、预训练和微调艺术基础 —— 预训练目标三、 Transformer 模型架构和自注意力
丁学文武
1 个月前
人工智能
·
语言模型
·
nlp
·
bert
·
roberta
·
大模型应用
·
encoder-only
大模型原理与实践:第三章-预训练语言模型详解_第1部分-Encoder-only(BERT、RoBERTa、ALBERT)
第一章 NLP基础概念完整指南第二章 Transformer 架构原理第三章 预训练语言模型第四章 大语言模型