nlp

热心不起来的市民小周15 小时前
深度学习·nlp·bert
True or False? 基于 BERT 学生数学问题误解检测代码详见:https://github.com/xiaozhou-alt/Student_Math_Misconception
xiaoli23275 天前
笔记·学习·nlp·bert
课题学习笔记3——SBERT在构建基于知识库的问答系统时,"语义匹配" 是核心难题 —— 如何让系统准确识别 "表述不同但含义相同" 的问题?比如用户问 "对亲人的期待是不是欲?",系统能匹配到知识库中 "追名逐利是欲,那对孩子和亲人的有所期待是不是欲?" 的答案。
java1234_小锋6 天前
python·flask·nlp·舆情分析·微博舆情分析
[免费]【NLP舆情分析】基于python微博舆情分析可视化系统(flask+pandas+echarts)【论文+源码+SQL脚本】大家好,我是python222_小锋老师,看到一个不错的【NLP舆情分析】基于python微博舆情分析可视化系统(flask+pandas+echarts),分享下哈。
Easy数模6 天前
人工智能·llm·nlp
使用llm进行高级主题建模:通过利用 BERTopic 的表示模型和生成式 AI 深入探讨主题建模详细介绍了BERTopic这一高性能主题建模工具,对比传统主题建模方法(如LDA、LSA)在流程复杂度、计算成本及效果上的不足,重点解析了BERTopic基于Transformer架构的模块化流程,包括嵌入模型(如Sentence Transformer)、降维模型(如UMAP)、聚类模型(如HDBSCAN)等核心组件的选择与实现。文中展示了通过TF-IDF、KeyBERTInspired及生成式AI(如GPT-3.5-turbo)优化主题表示的方法,强调其通过灵活调整组件参数提升模型适配性的优势。此外,
在未来等你8 天前
nlp·rag·retrieval-augmented generation·prompt engineering·context management
RAG实战指南 Day 24:上下文构建与提示工程欢迎来到"RAG实战指南"系列的第24天!今天我们将深入探讨RAG系统中至关重要的上下文构建与提示工程技术。在检索增强生成系统中,如何有效地组织检索到的文档片段,并将其转化为适合大语言模型(LLM)处理的提示,直接决定了最终生成结果的质量。本文将系统讲解上下文构建的最佳实践和高级提示工程技术,帮助您构建更精准、更可靠的RAG应用。
AI大模型10 天前
程序员·llm·nlp
基于 RAG 和 Claude 的智能文档聊天系统实战指南最近我和一个律师亲戚聊AI时,问了我应该怎么对现在律师事务所庞大的文档做AI检索,从技术上讲用现在的LLM+RAG可以满足需求,但细想不太对劲,因为这里面涉及到很多专业知识,还有律师的专有思维路径,一个不懂律师业务的程序员肯定是做不好的,于是有幸跟他们合伙人进行了深入沟通,合伙人说了一堆但我总结下来就这么一句话
Easy数模10 天前
人工智能·深度学习·nlp·bert
ModernBERT如何突破BERT局限?情感分析全流程解析自2018年推出以来,BERT 彻底改变了自然语言处理领域。它在情感分析、问答、语言推理等任务中表现优异。借助双向训练和基于Transformer的自注意力机制,BERT 开创了理解文本中单词关系的新范式。然而,尽管成绩斐然,BERT 仍存在局限——在计算效率、长文本处理和可解释性方面面临挑战。这推动了 ModernBERT 的研发,该模型专为解决这些痛点而生:它提升了处理速度、优化了长文本处理能力,还为开发者提供了更高透明度。本文将探索如何用 ModernBERT 开展情感分析,重点展现其特性与对 BE
Himon12 天前
人工智能·算法·nlp
LLM参数有效性学习综述如果微调一个3B的模型:模型参数本身的显存:模型有30亿个参数:3B = 3 * billion不同精度下的显存占用:
合作小小程序员小小店14 天前
自然语言处理·django·nlp·html5·tf-idf
web网页开发,在线%微博,舆情%系统,基于python,pycharm,django,nlp,内容推荐,余弦,线性,TF-IDF,mysql经验心得这类舆情项目无论场景如何延伸,核心始终围绕情感与业务场景的适配展开。需先明确技术栈的定位,比如 Web 开发框架负责交互层搭建,NLP 工具处理文本语义,数据库支撑数据存储,将零散的技术点整合为完整的业务链路。之前的舆情分析系统用 Django 搭建 Web 界面,通过 TF-IDF 和余弦相似度提取舆情关键词关联,现在的内容推荐项目同样基于 Python 生态,只是针对在线场景优化了 NLP 模型的实时性,调整了数据库的查询逻辑。在技术复用层面虽未完全照搬旧有架构,但 Python+PyChar
胡耀超21 天前
linux·深度学习·ubuntu·docker·容器·nlp·ocr
Umi-OCR 的 Docker安装(win制作镜像,Linux(Ubuntu Server 22.04)离线部署)前置博客:Ubuntu-Server 22.04.4 详细安装图文教程wget命令在windows终端下不能使用的原因及解决办法
用户0956691600921 天前
nlp
使用modelscope在本地部署文本情感分析模型并对外提供api接口使用modelscope部署StructBERT情感分类-中文-通用-base模型,并提供api接口环境安装 · 文档中心 为了简化部署,直接使用官方提供的docker镜像部署环境
uncle_ll21 天前
自然语言处理·nlp·语音识别·tts·语音变换
李宏毅NLP-9-语音转换语音转换(Voice Conversion, VC)的核心定义与本质,可从 输入输出、保留与改变的维度 解析:
陈敬雷-充电了么-CEO兼CTO25 天前
人工智能·python·gpt·ai·chatgpt·nlp·aigc
主流大模型Agent框架 AutoGPT详解注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)【陈敬雷编著】【清华大学出版社】
Accelemate1 个月前
nlp
Bert进行LoRA微调详细流程(附代码)背景说明: 基于 bert-base-uncased模型进行LoRA微调,完成句子情感分类任务,判断句子是属于哪类情感。
**梯度已爆炸**1 个月前
人工智能·深度学习·nlp
NLP文本预处理分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。在英文的行文中,单词之间是以空格作为自然分界符的,而中文只是字、句和段能通过明显的分界符来简单划界,唯独词没有一个形式上的分界符。分词过程就是找到这样分界符的过程。
蹦蹦跳跳真可爱5891 个月前
人工智能·深度学习·nlp·transformer·循环神经网络
Python----循环神经网络(Transformer ----注意力机制)场景引入:在购物时,通常会根据自身的尺寸,比如腰 围和胸围,来对照商家提供的尺码对照表。在下面的例子中,最左侧的腰围代表我们 的个人尺寸(query),而右侧的两列则是商家提供的对照表(key、value)。
kunge20131 个月前
nlp
自然语言处理基础-迈向NLP领域的第1步台阶在自然语言处理任务中,词向量(Word Embedding)是表示自然语言里单词的一种方法,即把每个词都表示为一个N维空间内的点,即一个高维空间内的向量。通过这种方法,实现把自然语言计算转换为向量计算。
爱学习的书文1 个月前
大模型·nlp·datawhale打卡
Datawhlale_快乐学习大模型_task02_NLP 基础概念书籍地址简要总结一下个人理解英文:Natural Language Processing 全程:自然语言处理 含义:通过计算机模拟人类认知和使用语言