nlp

大模型铲屎官6 小时前
人工智能·python·ai·langchain·nlp·文档加载·问答系统构建
玩转 LangChain:从文档加载到高效问答系统构建的全程实战01-玩转LangChain:从模型调用到Prompt模板与输出解析的完整指南 02-玩转 LangChain Memory 模块:四种记忆类型详解及应用场景全覆盖 03-全面掌握 LangChain:从核心链条构建到动态任务分配的实战指南 04-玩转 LangChain:从文档加载到高效问答系统构建的全程实战
&永恒的星河&3 天前
人工智能·ai·自然语言处理·nlp·tf-idf·pagerank·textrank
深度剖析:NLP 领域基于 TF-IDF 和 Text-Rank 的关键字提取原理今天,我想写一篇自然语言处理领域两大关键词提取技术 TF-IDF 和 Text-Rank。这两项技术在文本处理的世界里犹如两颗璀璨的明星,各自散发着独特的光芒,帮助我们从海量的文本数据中精准地提炼出关键信息,无论是在学术研究、信息检索,还是商业智能分析等领域,都有着举足轻重的地位。
goomind3 天前
人工智能·深度学习·llm·nlp·transformer
Transformer之Decoder在开始处理输入序列之前,模型对输出嵌入进行向右偏移一个位置,确保在训练阶段,解码器内的每个符号都能正确地获取之前生成符号的上下文信息。
背水4 天前
人工智能·机器学习·nlp·word2vec
Word2Vec中的CBOW模型训练原理详细解析CBOW模型的训练目标是利用一个单词周围的上下文单词来预测该单词本身。具体来说,给定当前单词的上下文单词,通过训练神经网络来最大化当前单词出现在这些上下文单词中的概率。
致Great5 天前
人工智能·llm·nlp
RAG 切块Chunk技术总结与分块实现思路分享TrustRAG项目地址🌟:github.com/gomate-comm…可配置的模块化RAG框架在RAG(Retrieval-Augmented Generation)任务中,Chunk切分是一个关键步骤,尤其是在处理结构复杂的PDF文档时。PDF文档可能包含图片、奇怪的排版等,增加了Chunk切分的难度。
爱python的王三金6 天前
大数据·python·nlp·数据可视化
【数据分析实战】马来西亚吉隆坡景点评论分析:多维度游客体验与运营优化洞察吉隆坡作为马来西亚的首都,凭借其独特的地标建筑、丰富的文化历史以及多元的游客体验,吸引了来自世界各地的旅行者。本次项目以吉隆坡主要景点的游客评论数据为基础,利用Python进行深度分析,旨在揭示游客的真实体验感受,为景区优化提供科学依据,同时为旅行者规划行程提供实用参考。
珊珊而川6 天前
人工智能·深度学习·nlp
[Trainer类封装训练过程]和[手动实现训练循环]的区别抛开模型种类不同,我不理解为什么代码1的模型训练过程和代码2的模型训练过程这么不同,但是好像都达到了模型训练的效果。这两种代码的模型训练语法有什么不同?
小饼干超人8 天前
python·机器学习·语言模型·nlp
BertTokenizerFast 和 BertTokenizer 的区别BertTokenizerFast 和 BertTokenizer 都是用于对文本进行标记化的工具,主要用于处理和输入文本数据以供 BERT 模型使用。它们都属于 HuggingFace 的 transformers 库。
致Great9 天前
人工智能·llm·nlp
掌握RAG查询优化技巧,让你的检索与生成效率翻倍!检索增强生成(RAG)系统去年挺火的,主要是因为它能高效地检索信息并生成内容。不过,要想让它的表现更上一层楼,查询优化技术就显得尤为重要了,尤其是在使用大型语言模型(LLM)的时候。我们可以通过扩展、分解、消歧和抽象这些方法来优化查询,这样一来,RAG系统里的LLM就能更高效、更准确地工作了。
致Great12 天前
人工智能·llm·nlp
《你的RAG出错了?快来Get这份改进秘籍》原始 RAG 框架在提升检索和生成答案质量方面,还有一些关键问题没解决:找出来的文档真的跟用户问题相关吗?有时候可能找偏了。
Mia@12 天前
nlp·paddle
智能化文档开发(DI)DI = 文本理解 + 文本生成 + 文本纠错 + 前端外壳💡 最后所有模型都训好之后,和后端逻辑一起封装到api中调用
大模型铲屎官12 天前
人工智能·pytorch·自然语言处理·大模型·nlp·词嵌入·文本张量表示
深入NLP核心技术:文本张量表示与词嵌入全面解析01-中文NLP入门必备:全面解析分词、命名实体识别与词性标注(附详细实战案例) 02-深入NLP核心技术:文本张量表示与词嵌入全面解析
大模型铲屎官13 天前
人工智能·面试·架构·大模型·llm·nlp·大模型面试
大模型(LLM)面试全解:主流架构、训练目标、涌现能力全面解析大模型(LLMs)基础面 01-大模型(LLM)面试全解:主流架构、训练目标、涌现能力全面解析大模型(LLMs)进阶面
和我乘风破浪15 天前
nlp
Python之nltk分词库的使用本文将给大家介绍一下如何使用NLTK进行各种自然语言处理任务。 这些示例将涵盖文本预处理、词频统计、词形还原、命名实体识别、文本分类等多个方面。
Power202466615 天前
人工智能·深度学习·机器学习·自然语言处理·nlp
NLP论文速读|基于主动检索的渐进多模态推理论文信息:本文探讨了多步多模态推理任务对于多模态大型语言模型(MLLMs)的挑战,特别是在提升这些模型在复杂推理场景中的表现方面。MLLMs在处理涉及数学推理和视觉问答等任务时,需要进行多步骤推理,每一步都可能产生多个分支和候选推理路径。有效地识别包含关键问题解决步骤的正确路径,同时排除错误路径,对于模型的推理能力至关重要。然而,现有的方法在推理路径扩展和模拟过程中存在局限性,尤其是在多模态场景中,模型内部知识不足以支持推理路径扩展,因为不同模态输入之间的交互常常出现错位。
致Great19 天前
人工智能·llm·nlp
如何从文档创建 RAG 评估数据集添加微信1185918903,关注公众号ChallengeHub获取更所咨询在本文中,将展示如何创建自己的 RAG 数据集,该数据集包含任何语言的文档的上下文、问题和答案。
Milkha18 天前
nlp·文本匹配
浅谈文本匹配文本匹配,即比较两个文本是否在某个维度上匹配,通常是比较两个文本之间是否在表达相同的意思,所以文本匹配一般也归结为计算两个文本之间的相似性。当然“相同的意思”也是不太好定义的,鉴于语言的复杂性,文本匹配通常是在相对直接的层次计算文本之间的相似性。 目录:
小森( ﹡ˆoˆ﹡ )18 天前
人工智能·深度学习·神经网络·机器学习·自然语言处理·nlp·llama
Flash Attention V3使用Flash Attention 是一种针对 Transformer 模型中注意力机制的优化实现,旨在提高计算效率和内存利用率。随着大模型的普及,Flash Attention V3 在 H100 GPU 上实现了显著的性能提升,相比于前一版本,V3 通过异步化计算、优化数据传输和引入低精度计算等技术,进一步加速了注意力计算。
致Great20 天前
人工智能·llm·nlp
Agent未来已来?揭示LLM Agent技术架构与现实挑战最近,大型语言模型(LLM)Agent成为了企业自动化领域的热门话题。Anthropic、OpenAI和Microsoft等科技巨头都在积极布局,预示着一场自动化革命的到来。这些AI驱动的系统被认为能够自主规划、推理和交互,完成复杂的任务,听起来就像是“自动化一切”的美好愿景。
曼城周杰伦20 天前
人工智能·gpt·自然语言处理·langchain·nlp·prompt·easyui
自然语言处理:第八十三章 Prompt格式到底多重要?本人项目地址大全:Victor94-king/NLP__ManVictor: CSDN of ManVictor