bert

Quintus五等升3 小时前
人工智能·笔记·深度学习·学习·机器学习·bert·numpy
深度学习自用笔记本文主要记录一些学习过程中的笔记One-hot编码 是一种非常方便且容易理解的表示方法,原理如下:对于N个不同的字,生成一个长度为N的向量,每个向量中只有一位是1,其余位全是0,以此来表示N个不同的字
码说AI2 天前
人工智能·深度学习·bert
核心知识点总结(BERT-tiny 微调 + 推理全流程)环境与依赖数据与训练流程基础推理批量推理数据集与模型文件路径与缓存
民乐团扒谱机2 天前
人工智能·自然语言处理·bert
【微科普】救命!做NLP必看!BERT到底是啥?吃透这篇,面试/项目直接封神做NLP、算法面试、文本相关项目的同学注意了!BERT你绕不开,但90%的人只听过名字,不知道它到底是啥、能用在哪、底层咋实现的。
AI资源库2 天前
langchain·nlp·bert·embedding·hugging face·fine-tuning·ai agent
解构嵌入模型之王:All-MiniLM-L6-v2 的文件树解密、蒸馏机制与工业级应用生态我们将文件分为四大类进行详细解读,并配合关系图谱说明它们如何协同工作。这部分定义了模型的“智商上限”和“思考方式”。
得一录4 天前
人工智能·深度学习·bert
BERT的预训练模型介绍Google于2018年提出的一种名为BERT的预训练模型,以其深度的双向变换器(Bidirectional Transformers)机制,为语言理解带来了新的突破。
人工不智能5776 天前
人工智能·深度学习·bert
拆解 BERT:Output 中的 Hidden States 到底藏了什么秘密?[动手写 bert 系列] 解析 bertmodel 的output(last_hidden_state,pooler_output,hidden_state) 专栏第七个视频学习归纳总结。
java1234_小锋11 天前
人工智能·flask·bert·ai大模型
【AI大模型舆情分析】微博舆情分析可视化系统(pytorch2+基于BERT大模型训练微调+flask+pandas+echarts) 实战(下)大家好,我是锋哥。最近发布一条【AI大模型舆情分析】微博舆情分析可视化系统(pytorch2+基于BERT大模型训练微调+flask+pandas+echarts)高级实战。分上下节。
海绵宝宝de派小星11 天前
人工智能·ai·bert·word2vec
文本表示方法演进(词袋模型→Word2Vec→BERT)在自然语言处理中,如何将文本转换为计算机可以理解和处理的数学表示,是一个核心问题。本文将带你深入了解文本表示方法的演进历程,从最简单的词袋模型到革命性的BERT模型,展示NLP技术如何一步步突破传统方法的局限。
java1234_小锋12 天前
人工智能·flask·大模型·bert
【AI大模型舆情分析】微博舆情分析可视化系统(pytorch2+基于BERT大模型训练微调+flask+pandas+echarts) 实战(上)大家好,我是锋哥。最近发布一条【AI大模型舆情分析】微博舆情分析可视化系统(pytorch2+基于BERT大模型训练微调+flask+pandas+echarts)高级实战。分上下节。
副露のmagic13 天前
深度学习·bert·transformer
草履虫级 Transformer code by hand以一个比较简单的例子写一写transformer的代码,数据来源是《鲁迅全集》,简要展示一下:目的是续写后面的内容,或者说是生成类似风格的一段话吧(= -=) 效果也展示一下:最后会把整体代码贴上来
薛定谔的猫198213 天前
人工智能·深度学习·bert
十三.调用 BERT 中文文本情感分析交互式推理模型训练好的在完成 BERT 模型的训练与测试后,将模型落地为交互式推理工具是验证模型效果、快速调试的核心环节 —— 通过实时输入文本,即时得到模型的情感分类结果,能直观验证模型对真实场景文本的泛化能力。本文基于中文 BERT 预训练模型(bert-base-chinese),手把手拆解 “交互式文本情感分析推理” 的完整实现逻辑,从代码结构、核心函数到运行演示,让你快速掌握训练后模型的落地方法。
薛定谔的猫198213 天前
人工智能·分类·bert
十二、基于 BERT 的中文文本二分类模型测试实战:从数据加载到准确率评估源代码如下:bert_test模型训练完成后,测试阶段是验证模型泛化能力的核心环节 —— 只有在未见过的测试集上表现稳定,才能说明模型真正学到了文本的语义特征,而非单纯 “记住” 训练数据。本文聚焦基于bert-base-chinese的中文文本二分类模型测试全流程,从测试集加载、批量数据处理,到模型推理、准确率计算,拆解每一个核心步骤,并附上可直接运行的完整代码。
薛定谔的猫198213 天前
人工智能·深度学习·bert
十四、基于 BERT 的微博评论情感分析模型训练实践微博作为国内主流的社交媒体平台,其评论数据蕴含着丰富的用户情感倾向。本文将详细介绍如何基于 BERT 预训练模型构建微博评论情感分析模型,实现 8 类情感(喜欢、厌恶、开心、悲伤、愤怒、惊讶、恐惧、无情感)的分类任务,并完整拆解从数据加载、模型构建到训练推理的全流程。
薛定谔的猫198214 天前
人工智能·深度学习·自然语言处理·分类·bert·大模型 训练 调优
十一、基于 BERT 的中文文本情感分类模型训练全解析在自然语言处理(NLP)领域,中文文本情感分类是一项兼具实用价值与技术代表性的任务,广泛应用于电商评论分析、舆情监控、客户反馈处理等场景。传统机器学习模型难以捕捉中文的深层语义与语境信息,而预训练语言模型的出现,为该任务提供了高效、高精度的解决方案。
阿龙AI日记15 天前
深度学习·自然语言处理·nlp·bert
快速学会BERT模型!在开始学习BERT之前,我们来简要回顾一下Transformer模型。我们需要将输入转化为模型可以理解的数学形式。具体过程为: 首先将单词或者句子转换为一个固定维度的向量,得到词嵌入,这个过程采用的方法有比如Word2Ved、Glove等。
新缸中之脑18 天前
人工智能·深度学习·bert
微调 BERT 实现命名实体识别命名实体识别(NER)是自然语言处理(NLP)中的一项基本任务,涉及识别和分类文本中的命名实体到预定义的类别,如人名、组织、地点等。NER 有广泛的应用,从改进搜索引擎结果到为聊天机器人提供动力和从文档中提取关键信息。
NCU_wander18 天前
人工智能·深度学习·bert
RAG Embedding Reranker 、Bert、CLIP&T5Embedding 阶段 核心目标是快速召回,从海量候选集中筛选出 Top-K 相关内容,要求速度快,通常是双塔架构。
汗流浃背了吧,老弟!20 天前
人工智能·深度学习·bert
基于 BERT 模型实现命名实体识别(NER)任务本项目实现了一个基于BERT(Bidirectional Encoder Representations from Transformers)的中文命名实体识别系统。该系统能够从中文文本中自动识别并提取四类命名实体:
Jack___Xue22 天前
人工智能·深度学习·bert
LLM知识随笔(二)--BERT地位:公认的里程碑式模型 最大的优点:最大的优点不是创新,而是集大成者 意义:从大量无标记数据集中训练得到的深度模型,可以显著提高各项自然语言处理任务的准确率。 如何成为集大成者:参考ELMO 模型的双向编码思想 + 借鉴GPT 用 Transformer 作为特征提取器的思路 + 采用word2vec 所使用的 CBOW 方法
java1234_小锋24 天前
人工智能·深度学习·bert
【专辑】AI大模型应用开发入门-拥抱Hugging Face与Transformers生态 - 基于BERT文本分类模型微调大家好,我是java1234_小锋老师,最近更新《AI大模型应用开发入门-拥抱Hugging Face与Transformers生态》专辑,感谢大家支持。