nlp

Rabbit_QL2 小时前
python·算法·nlp
【BPE实战】从零实现 BPE 分词器:训练、编码与解码在BPE理论篇中,我们理解了 BPE 的核心思想:从 256 个字节值出发,反复合并最高频的相邻符号对,用更大的词表换取更短的序列。这篇实践篇,我们用 Python 从零把它写出来。
这张生成的图像能检测吗6 小时前
人工智能·计算机视觉·nlp·注意力机制
(论文速读)XLNet:语言理解的广义自回归预训练论文题目:XLNet: Generalized Autoregressive Pretraining for Language Understanding(语言理解的广义自回归预训练)
肾透侧视攻城狮9 小时前
人工智能·nlp·fasttext·word2vec/glove·elmo/n-gram/词袋·doc2vec/lda·句向量与文档向量
《NLP核心能力构建:从传统统计到上下文感知的文本表示演进之路》目录本篇技术博文摘要 🌟引言 📘上节回顾1.文本表示方法2.传统文本表示2.1词袋模型(Bag of Words)
换个名字就很好1 天前
nlp
cursor安装和编程搜官网下载,略登录需要科学上网,不然有的步骤连不上 至此,安装和简单设置已完成
智海观潮2 天前
大数据·nlp·aigc
Vanna-ai - 让自然语言对话SQL数据库成为可能,支持多种数据库,大模型和向量存储Vanna是一款基于MIT许可证的开源Python检索增强生成(RAG,Retrieval-Augmented Generation)框架,主要用于SQL生成及相关功能开发。核心定位是通过RAG与LLM实现高精度的Text-to-SQL,最终让用户以自然语言与任意SQL数据库交互,无需手动编写SQL语句。
TvxzFtDBIxok7 天前
nlp
基于MATLAB/Simulink的4机10节点系统暂态稳定性仿真4机10节点系统暂态稳定性仿真/Simulink仿真 1.基于MATLAB/Simulink平台搭建4机10节点系统仿真模型,可以仿真单相接地/两相相间短路/两相接地短路/三相短路故障情况下 系统的暂态特性。 2.研究电力系统稳定器(power system stabilizer)PSS和静止无功补偿器(static var compensator)SVC对系统暂态稳定性的影响。
查无此人byebye10 天前
python·深度学习·nlp·transformer·多分类
【超详细解读(GPU)】基于DiT的MNIST扩散模型(DDPM)完整实现扩散模型(Diffusion Model)是当前生成式AI领域的研究热点,而DiT(Diffusion Transformer)则是将Transformer架构与扩散模型结合的经典范式。本文将逐行解读一份完整的基于DiT实现MNIST手写数字生成的DDPM(Denoising Diffusion Probabilistic Models)代码,从核心架构到训练推理,带你彻底理解每一行代码的功能与设计思路。
乌萨奇53710 天前
人工智能·深度学习·考研·计算机视觉·nlp·多模态
【2025考研复试】深度学习扩展知识:从ViT到多模态,以及简历项目挖掘策略(第11章复盘)目录前言:复试中的“降维打击”第一部分:打破CNN统治——Vision Transformer (ViT)
查无此人byebye10 天前
人工智能·python·深度学习·nlp·transformer
基于DiT+DDPM的MNIST数字生成:模型推理实战教程扩散模型(Diffusion Model)在图像生成领域展现出卓越的性能,本文基于DiT(Diffusion Transformer)+DDPM(Denoising Diffusion Probabilistic Models)实现MNIST手写数字的指定生成,手把手教大家如何加载预训练的扩散模型权重,实现指定单个数字(0-9)的图像生成推理,并保存生成结果。
Yaozh、11 天前
人工智能·深度学习·神经网络·自然语言处理·nlp·word2vec
【word2vec模型】两种模型结构CBOW和Skip-gram的具体过程Word Embedding(词嵌入) 是自然语言处理(NLP)中的一项基础技术,它的核心目的是将人类语言中的词语转换成计算机能够理解和计算的数字形式——即向量(Vectors)。
AI资源库14 天前
langchain·nlp·bert·embedding·hugging face·fine-tuning·ai agent
解构嵌入模型之王:All-MiniLM-L6-v2 的文件树解密、蒸馏机制与工业级应用生态我们将文件分为四大类进行详细解读,并配合关系图谱说明它们如何协同工作。这部分定义了模型的“智商上限”和“思考方式”。
肾透侧视攻城狮15 天前
深度学习·nlp·transformer·文本情感分析项目·lstm模型架构图·评估函数及准确率计算·预测新文本
《完结篇 | PyTorch Transformer实战:构建你的第一个LSTM情感分析模型(含环境配置、数据、训练、评估全代码)》目录本篇技术博文摘要 🌟引言 📘上节回顾1.PyTorch 实例 - 文本情感分析项目1.1情感分析的应用场景
shenxianasi16 天前
人工智能·深度学习·机器学习·计算机视觉·nlp
【论文精读】Learning Transferable Visual Models From Natural Language Supervision目录一、引言二、方法概览与解读(1)对比预训练(Contrastive pre-training)(2)从标签文本创建数据集分类器(Create dataset classifier from label text)
墨心@16 天前
人工智能·笔记·语言模型·自然语言处理·chatgpt·nlp·llama
沐曦MCX500安装llama factory应该是01-locale-fix.sh 、 conda.sh这两个文件导致的,首先用cat conda.sh
aiguangyuan17 天前
人工智能·python·nlp
使用LSTM进行情感分类:原理与实现剖析情感分类是自然语言处理(NLP)中的一项基础而重要的任务,旨在自动判断文本的情感倾向(如正面或负面)。传统机器学习方法在处理此类任务时面临诸多挑战,尤其是在处理变长序列数据和捕捉长距离依赖关系方面。循环神经网络(RNN)及其改进型长短期记忆网络(LSTM)通过其序列建模能力,为这类问题提供了优雅的解决方案。本文将深入剖析一个基于PyTorch实现的LSTM情感分类器,从数据预处理到模型推理,逐层解析其背后的核心原理。
茶栀(*´I`*)17 天前
人工智能·自然语言处理·nlp
【NLP入门笔记】:自然语言处理基础与文本预处理自然语言处理(Natural Language Processing,NLP)是人工智能(AI)的核心分支之一,核心目标是让计算机能够理解、处理、生成人类的自然语言,实现人机之间的自然语言交互。
aiguangyuan17 天前
人工智能·python·nlp
基于BERT的中文命名实体识别实战解析在自然语言处理领域,命名实体识别(NER)是一项基础且重要的任务,它旨在识别文本中具有特定意义的实体,如人名、地名、组织机构名等。传统方法依赖手工特征和条件随机场(CRF),而现代深度学习方法,特别是基于Transformer的预训练模型,显著提升了NER的性能。本文将深入剖析一个使用Hugging Face Transformers库进行中文NER任务的完整代码实现。
holeer17 天前
神经网络·机器学习·ai·cnn·nlp·知识图谱·智能计算
【V2.0】王万良《人工智能导论》笔记|《人工智能及其应用》课程教材笔记【文章基本信息】【图书基本信息】👉高等教育出版社【课程基本信息】课程名称:人工智能及其应用 / Artificial Intelligence with Applications
aiguangyuan17 天前
人工智能·python·nlp
基于BiLSTM-CRF的命名实体识别模型:原理剖析与实现详解命名实体识别是自然语言处理中的一项核心任务,旨在识别文本中特定类别的实体,如人名、组织名、地名等。本技术博客将深入剖析一个基于BiLSTM-CRF(双向长短时记忆网络-条件随机场)的NER模型实现,该模型能够有效识别文本中的人名(PER)、组织名(ORG)和地名(LOC)。
黑衣骑士兴18 天前
nlp
llamafactory 安装和使用调整batch size,让GPU使用达到80%左右单论对话instruction是问,output是回答