技术栈
bert
AI新兵
10 小时前
人工智能
·
gpt
·
bert
AI大事记13:GPT 与 BERT 的范式之争(上)
2018 年,人工智能领域发生了一场意义深远的技术革命。在这一年,两个基于 Transformer 架构的模型相继问世,它们不仅彻底改变了自然语言处理(NLP)的研究范式,更开启了 AI 发展的新纪元。这两个模型就是 OpenAI 在 6 月发布的GPT-1和 Google 在 10 月推出的BERT。虽然它们都采用了 Transformer 架构,但在技术路线上却选择了截然不同的方向:GPT-1 专注于生成任务,而 BERT 则聚焦于理解任务。这场 "范式之争" 不仅展现了两种不同的技术哲学,更共同推动
deephub
18 小时前
人工智能
·
深度学习
·
语言模型
·
bert
·
transformer
深入BERT内核:用数学解密掩码语言模型的工作原理
传统语言模型有个天生缺陷——只能从左往右读,就像你现在读这段文字一样,一个词一个词往下看,完全不知道后面会出现什么。人类可不是这么学语言的。看到"被告被判**_**“,大脑会根据上下文直接联想到"有罪"或者"无罪”,这就是双向理解在起作用。
PKNLP
18 小时前
人工智能
·
深度学习
·
bert
BERT系列模型
BERT是2018年10月由Google AI研究院提出的一种预训练模型.总体架构: 如下图所示, 最左边的就是BERT的架构图, 可以很清楚的看到BERT采用了Transformer Encoder block进行连接, 因为是一个典型的双向编码模型.
来酱何人
21 小时前
人工智能
·
深度学习
·
分类
·
nlp
·
bert
实时NLP数据处理:流数据的清洗、特征提取与模型推理适配
在大数据与AI融合的场景中,日志、用户评论等流数据具备实时性强、噪声密集、价值密度低的特点,传统离线NLP处理模式已无法满足实时决策需求(如实时舆情监控、智能客服响应)。本文聚焦流数据的实时NLP全流程,从数据清洗、特征提取到模型推理适配,拆解技术要点与实践方案。 一、实时流数据的核心挑战 日志(如系统操作日志、APP行为日志)与用户评论(如电商评价、社交留言)作为典型流数据,在处理中需突破三大核心难点: - 实时性要求高:数据以毫秒/秒级持续产生,需在秒级内完成处理(如评论违规实时拦截需≤1秒); -
空白到白
1 天前
人工智能
·
gpt
·
自然语言处理
·
bert
BERT,GPT,ELMO模型对比
Embedding层三维融合:Token Embeddings:词汇编码,包含[CLS]和[SEP]特殊标记
空白到白
1 天前
人工智能
·
自然语言处理
·
bert
BERT-微调任务
微调任务:完形填空任务(MLM) + NSP任务NLP数据集:标准评估数据集介绍BERT模型:核心原理与架构详解
来酱何人
3 天前
人工智能
·
深度学习
·
分类
·
nlp
·
bert
低资源NLP数据处理:少样本/零样本场景下数据增强与迁移学习结合方案
摘要 在自然语言处理(NLP)领域,低资源场景(少样本/零样本)因标注数据稀缺,成为模型性能提升的核心瓶颈。本文提出将数据增强技术与迁移学习框架深度结合的解决方案,通过数据增强扩充样本多样性、迁移学习复用预训练知识,形成“数据扩容-知识迁移-模型适配”的闭环。实验表明,该方案在情感分析、命名实体识别等低资源任务中,可使模型F1值提升8%-15%,为低资源NLP任务提供高效可行的技术路径。 一、低资源NLP场景的核心挑战 低资源NLP任务主要分为两类:少样本学习(Few-Shot Learning) 指目标
来酱何人
6 天前
人工智能
·
分类
·
nlp
·
bert
·
机器翻译
机器翻译数据处理核心技术:从语料到模型的质量管控链路
机器翻译(MT)系统的性能,本质上由“数据质量”与“模型架构”共同决定。在Transformer等主流模型架构趋于成熟的当下,高质量双语语料成为拉开性能差距的关键。而双语语料清洗、句子长度过滤、领域术语一致性维护,是构建“高纯净度、高适配性、高专业性”语料库的三大核心环节,直接影响模型对双语语义映射关系的学习效果。 一、双语语料清洗:筑牢数据质量根基 原始双语语料(如网络爬取数据、平行语料库)中普遍存在噪声,包括非平行句对、语义偏差句对、垃圾信息等。清洗的核心目标是剔除噪声,保留“语义对等、表达规范”的有
闲看云起
8 天前
论文阅读
·
人工智能
·
深度学习
·
语言模型
·
自然语言处理
·
bert
Bert:从“读不懂上下文”的AI,到真正理解语言
你有没有遇到过这种情况:朋友发来一句:“他走了。” 你一脸懵:走了?是出门了?还是分手了?还是……去世了?
一车小面包
8 天前
人工智能
·
深度学习
·
bert
BERT 中文外卖评价情感分析项目
随着外卖行业的发展,用户在平台上留下的评价数据具有极高的商业价值。 通过对这些文本进行情感分析,可以帮助平台:
一车小面包
9 天前
自然语言处理
·
bert
BERT相关知识自测
BERT 在预训练阶段使用两个无监督任务:Masked Language Model (MLM) —— 掩码语言模型
2401_84149564
10 天前
人工智能
·
python
·
自然语言处理
·
bert
·
文本预处理
·
特征提取
·
训练验证
【自然语言处理】“bert-base-chinese”的基本用法及实战案例
目录一、引言二、基础用法:模型加载与分词(一)核心库与工具(二)代码分步解析1. 下载模型到本地2. 加载分词器(文本→模型输入格式转换)
新兴ICT项目支撑
12 天前
人工智能
·
分类
·
bert
BERT文本分类超参数优化实战:从13小时到83秒的性能飞跃
关键成果: 通过系统化的超参数优化,将BERT文本分类训练时间从13.1小时压缩到83秒,性能提升568倍,显存占用从97%优化到66%,准确率基本持平。本文详细记录了完整的优化过程,提供可复现的方法论。
2401_84149564
12 天前
gpt
·
语言模型
·
自然语言处理
·
bert
·
transformer
·
大语言模型
·
预训练
预训练基础模型简介
目录一、引言二、预训练和微调艺术基础 —— 预训练目标三、 Transformer 模型架构和自注意力
丁学文武
19 天前
人工智能
·
语言模型
·
nlp
·
bert
·
roberta
·
大模型应用
·
encoder-only
大模型原理与实践:第三章-预训练语言模型详解_第1部分-Encoder-only(BERT、RoBERTa、ALBERT)
第一章 NLP基础概念完整指南第二章 Transformer 架构原理第三章 预训练语言模型第四章 大语言模型
fyakm
22 天前
自然语言处理
·
bert
·
embedding
词向量:从 One-Hot 到 BERT Embedding,NLP 文本表示的核心技术
在自然语言处理(NLP)领域,“让计算机理解文本” 的第一步,是将人类可读的文字转化为机器可计算的数值形式 —— 这就是文本表示的核心目标。而词向量(Word Embedding)作为文本表示的基础单元,直接决定了后续 NLP 任务(如文本分类、机器翻译、情感分析)的效果上限。从早期的 One-Hot 编码到如今的预训练词向量(如 BERT Embedding),词向量技术已完成从 “离散稀疏” 到 “连续稠密” 的跨越式发展。本文将以技术演进为主线,从原理、模型、实践到进阶方向,全面解析词向量的核心技术
星川皆无恙
22 天前
大数据
·
人工智能
·
深度学习
·
bert
·
知识图谱
知识图谱之深度学习:基于 BERT+LSTM+CRF 驱动深度学习识别模型医疗知识图谱问答可视化分析系统
知识图谱是将知识连接起来形成的一个网络。由节点和边组成,节点是实体,边是两个实体的关系,节点和边都可以有属性。知识图谱除了可以查询实体的属性外,还可以很方便的从一个实体通过遍历关系的方式找到相关的实体及属性信息。
无妄无望
24 天前
人工智能
·
深度学习
·
bert
解码器系列(1)BERT
论文地址:BERT 代码地址:bert我们提出了一种新的语言表示模型,称为 BERT,其全称是来自 Transformers 的双向编码器表示。与近期的语言表示模型(Peters 等人,2018a;Radford 等人,2018)不同,BERT 旨在通过在所有层中联合调节左右上下文,从无标注文本中预训练深度双向表示。因此,预训练好的 BERT 模型只需添加一个额外的输出层进行微调,即可为广泛的任务(如问答和语言推理)创建最先进的模型,而无需对任务特定的架构进行大量修改。
苏苏susuus
24 天前
人工智能
·
自然语言处理
·
bert
NLP:讲解Bert模型的变体
现在,再系统梳理一下这些重要的变体,看看它们是如何在巨人肩膀上更进一步的。我们可以将这些变体分为几个主要的演进方向:
苏苏susuus
24 天前
人工智能
·
自然语言处理
·
bert
NLP:关于Bert模型的基础讲解
在BERT出现之前,主流的语言模型(如RNN、LSTM)在处理文本时,通常是单向的——从左到右或从右到左地阅读句子。