nlp

weixin_404551243 天前
人工智能·自然语言处理·nlp·huggingface·tasks
HUGGINGFACE NLP- MAIN NLP TASKS1.1 分类 1.1.1 实体命名识别 (NER): 找出句子中的实体(如人物、地点或组织)。这可以通过为每个实体或“无实体”指定一个类别的标签。 1.1.2 词性标注 (POS): 将句子中的每个单词标记为对应于特定的词性(如名词、动词、形容词等)。 1.1.3 分块(chunking): 找到属于同一实体的Token。这个任务(可结合POS或NER)可以任何将一块Token作为制定一个标签(通常是B -),另一个标签(通常I -)表示Token是否是同一块,和第三个标签(通常是O)表示Token不属于
宝贝儿好3 天前
人工智能·深度学习·机器学习·自然语言处理·nlp
【NLP】第六章:位置编码Positional Encoding(一)为什么需要位置编码器? 前面我们花了大幅的笔墨、详细的描述了embedding层和注意力模块的计算流程,可以看出attention模块确实是学习了样本于样本之间的关系。每个样本都计算了它和所有样本(包括它自己)之间的attention分数。但是有没有发现:这个attention score矩阵是没有反应样本和样本之间的顺序关系的!仍然以上篇的例子来展示:
goomind4 天前
人工智能·gpt·深度学习·nlp
GPT核心原理2018 年 6 月,OpenAI 发表论文介绍了自己的语言模型 GPT,GPT 是“Generative Pre-Training”的简称,它基于 Transformer 架构,GPT模型先在大规模语料上进行无监督预训练、再在小得多的有监督数据集上为具体任务进行精细调节(fine-tune)的方式。先训练一个通用模型,然后再在各个任务上调节,这种不依赖针对单独任务的模型设计技巧能够一次性在多个任务中取得很好的表现。这种模式也是 2018 年中自然语言处理领域的研究趋势,就像计算机视觉领域流行 Image
♢.*5 天前
论文阅读·人工智能·计算机视觉·nlp·自动驾驶
自动驾驶2022-2024年论文汇总与解析亲爱的小伙伴们😘,在求知的漫漫旅途中,若你对深度学习的奥秘、JAVA 、PYTHON与SAP 的奇妙世界,亦或是读研论文的撰写攻略有所探寻🧐,那不妨给我一个小小的关注吧🥰。我会精心筹备,在未来的日子里不定期地为大家呈上这些领域的知识宝藏与实用经验分享🎁。每一个点赞👍,都如同春日里的一缕阳光,给予我满满的动力与温暖,让我们在学习成长的道路上相伴而行,共同进步✨。期待你的关注与点赞哟🤗!
Illusionna.5 天前
人工智能·pytorch·算法·自然语言处理·nlp·matplotlib·word2vec
Word2Vec 模型 PyTorch 实现并复现论文中的数据集详细注解链接:https://www.orzzz.net/directory/codes/Word2Vec/index.html
weixin_404551246 天前
人工智能·自然语言处理·微调·nlp·huggingface·fine-train
huggingface NLP-微调一个预训练模型微调一个预训练模型1.1 处理数据 1.1.1 fine-tune 使用tokenizer后的token 进行训练
青松@FasterAI9 天前
人工智能·深度学习·自然语言处理·nlp
【NLP高频面题 - 词嵌入篇】为什么说Word2vec的词向量是静态的?重要性:★★NLP Github 项目:NLP 项目实践:fasterai/nlp-project-practice
通信仿真实验室10 天前
人工智能·深度学习·神经网络·自然语言处理·nlp·bert·transformer
Google BERT入门(5)Transformer通过位置编码学习位置考虑输入句子“I love learning”。在RNN(Recurrent Neural Network,递归神经网络)中,我们逐词将句子输入网络。也就是说,首先输入单词“I”,然后输入单词“love”,等等。我们逐词输入句子,以便网络完全理解句子。但是,在transformer网络中,我们不遵循递归机制。所以,我们不是逐词输入句子,而是将句子中的所有单词并行输入网络。并行输入单词有助于减少训练时间,也有助于学习长期依赖关系。
Easy数模10 天前
人工智能·自然语言处理·nlp
经典NLP案例 | 推文评论情绪分析:从数据预处理到模型构建的全面指南“My ridiculous dog is amazing.” [sentiment: positive]
一只小灿灿12 天前
人工智能·自然语言处理·nlp
自然语言处理:从入门到精通全指引自然语言处理(NLP)作为人工智能领域的关键分支,旨在让计算机理解、生成和处理人类语言,近年来取得了令人瞩目的成就,在智能客服、机器翻译、文本分析、语音助手等众多领域发挥着重要作用。从入门到精通自然语言处理,需要系统地学习一系列知识与技能,涵盖编程语言、数学基础、自然语言处理基础技术、机器学习与深度学习算法,以及丰富的实践项目经验积累等。本学习路线将为你全方位呈现这一充满挑战与机遇的学习之旅,助你逐步成长为自然语言处理领域的专业高手。
python_知世12 天前
人工智能·深度学习·自然语言处理·大模型·nlp·bert·多标签文本分类
【NLP修炼系列之Bert】Bert多分类&多标签文本分类实战(附源码下载)今天我们就要用Bert做项目实战,实现文本多分类任务和我在实际公司业务中的多标签文本分类任务。通过本篇文章,可以让想实际入手Bert的NLP学习者迅速上手Bert实战项目。
章章小鱼15 天前
人工智能·nlp
【llm_inference】思维链推理cot(最小code实现)GitHub Code: 人人都能看懂的简单实现在人工智能领域,如何提升大语言模型的逻辑推理能力一直是一个重要的研究方向。思维链(Chain of Thought,简称 CoT)推理是一种创新的提示技术,通过引导模型像人类一样一步步思考,显著提升了模型在复杂问题上的表现。本文将深入剖析思维链推理的实现原理和技术细节。
曼城周杰伦16 天前
人工智能·pytorch·神经网络·自然语言处理·nlp·gpt-3·知识图谱
自然语言处理:第七十一章 RAG中表格应该如何处理?本人项目地址大全:Victor94-king/NLP__ManVictor: CSDN of ManVictor
羽_羊16 天前
elasticsearch·nlp·分词·搜索
NLP-中文分词中文分词根据实现特点大致可分为两个类别:基于词典的分词方法、基于统计的分词方法。__ 基于词典的分词方法 __:基于词典的分词方法首先会建立一个充分大的词典,然后依据一定的策略扫描句子,若句子中的某个子串与词典中的某个词匹配,则分词成功。 常见的扫描策略有:正向最大匹配、逆向最大匹配、双向最大匹配和最少词数分词。
曼城周杰伦18 天前
人工智能·pytorch·神经网络·microsoft·自然语言处理·nlp
自然语言处理:第七十二章 微软推出超越自己GraphRAG的LazyGraphRAG本人项目地址大全:Victor94-king/NLP__ManVictor: CSDN of ManVictor
青松@FasterAI19 天前
人工智能·深度学习·自然语言处理·nlp
【NLP高频面题 - LLM架构篇】大模型使用SwiGLU相对于ReLU有什么好处?重要性:★★★ 💯NLP Github 项目:NLP 项目实践:fasterai/nlp-project-practice
曼城周杰伦19 天前
人工智能·自然语言处理·chatgpt·langchain·nlp·embedding
自然语言处理:第七十章 Langchain的长文本总结处理方案本人项目地址大全:Victor94-king/NLP__ManVictor: CSDN of ManVictor
青松@FasterAI20 天前
人工智能·深度学习·语言模型·自然语言处理·nlp
【NLP高频面题 - LLM架构篇】LLM对Transformer都有哪些优化?⚠︎ 重要性:★★★ 💯NLP Github 项目:NLP 项目实践:fasterai/nlp-project-practice
青松@FasterAI20 天前
人工智能·深度学习·语言模型·自然语言处理·架构·nlp
【NLP高频面题 - LLM架构篇】旋转位置编码RoPE如何进行外推?重要性:★★★ 💯NLP Github 项目:NLP 项目实践:fasterai/nlp-project-practice