自然语言处理

合作小小程序员小小店9 小时前
python·自然语言处理·回归·nlp·线性回归
web网页,在线%抖音,舆情,线性回归%分析系统demo,基于python+web+echart+nlp+线性回归,训练,数据库mysql经验心得帮助客户美女修改完善抖音舆情分析Demo系统时,还是一样使用Python来开发,DjangoWeb框架搞页面,MySQL存爬来的抖音数据。系统核心靠NLP分析评论情感,再用线性回归跑舆情趋势,ECharts把结果画成图表特直观。
WWZZ202514 小时前
人工智能·深度学习·算法·语言模型·自然语言处理·大模型·具身智能
快速上手大模型:深度学习13(文本预处理、语言模型、RNN、GRU、LSTM、seq2seq)目录1 文本预处理1.1 库1.2 读取数据集1.3 词元化1.4 词表2 语言模型2.1 定义2.2 代码
老友@15 小时前
人工智能·搜索引擎·ai·语言模型·自然语言处理·rag
RAG 的诞生:为了让 AI 不再“乱编”人工智能和大语言模型(LLM)的发展,让机器能够理解和生成自然语言,像人类一样回答问题、写文章,甚至生成代码。但单靠模型内部的“记忆”,往往有几个问题:
Ma04071316 小时前
人工智能·语言模型·自然语言处理
【论文阅读19】-用于PHM的大型语言模型:优化技术与应用综述题目:Large language models for PHM: a review of optimization techniques and applications
斯外戈的小白1 天前
rnn·自然语言处理·分类
【NLP】基础概念+RNN架构提示:菜菜和九天老师的深度学习实战课程学习笔记,非抄袭。图灵测试是计算机科学家阿兰·图灵在1950年提出的概念,这一测试可以衡量机器是否能够表现出与人类相当的智能。具体来说,图灵测试让一个人类与另一个不可视房间中存在的机器进行对话,如果该人类无法判断出与他/她对话的对象是机器还是真人,那该机器就被认为“通过图灵测试”,即被认可“拥有人工智能”。
F***c3251 天前
前端·react.js·自然语言处理
React自然语言处理应用自然语言处理,简单来说,就是让计算机理解和处理人类语言。在React应用中集成NLP,可以用于多种场景,比如聊天机器人、内容推荐系统或舆情监控工具。React的组件化架构让这种集成变得相对简单,我们可以通过JavaScript库来实现NLP功能,而无需依赖复杂的后端服务。举个例子,市面上有不少轻量级的NLP库,比如compromise.js或TensorFlow.js的NLP模块,它们可以直接在浏览器中运行,减少了服务器压力。
智算菩萨2 天前
人工智能·语言模型·自然语言处理
走向通用智能的大语言模型:具身、符号落地、因果与记忆的统一认知视角——解读《Large language models for artificial general intelligence (AGI): A survey of foundational principles and approaches》
极客BIM工作室2 天前
人工智能·自然语言处理·bert
BERT模型中词汇表向量与网络权重:从属关系与不可替代的功能分工在NLP领域,BERT模型的“词汇表”和“网络权重”是两个高频出现的概念,但不少开发者在实践中会陷入一个误区:将二者视为独立模块,甚至认为“用其他网络权重替代词汇表也能工作”。事实上,词汇表向量(嵌入层参数)是网络权重的“子集”,并非两回事,但二者功能分工完全不同,因此绝不能用其他网络权重替代词汇表——前者负责“将离散Token映射为连续语义向量”(语义理解的基础载体),后者负责“加工语义向量、捕捉上下文依赖”(语义理解的核心处理器),二者缺一不可,共同构成BERT的语义学习能力。
搬砖者(视觉算法工程师)2 天前
人工智能·语言模型·自然语言处理
检索增强生成(RAG)与大语言模型微调(Fine-tuning)的差异、优势及使用场景详解微调大语言模型是利用特定任务或领域的定制数据集,对预训练模型进行调整;而检索增强生成(RAG)则将检索系统与生成模型相结合,动态地将外部的、最新的知识融入生成结果中。
ToTensor2 天前
人工智能·语言模型·自然语言处理
Tree of Thoughts:让大语言模型像人类一样思考通过 Game24 游戏,深入理解 Tree of Thoughts 如何让大语言模型进行多步推理和智能搜索
黑客思维者2 天前
人工智能·语言模型·自然语言处理
为什么大语言模型需要海量训练数据?做LLM开发的同学肯定踩过这种坑:斥“算力巨资”训了个10亿参数模型,结果它要么答非所问,要么说出来的话像“刚学说话的小孩”——其实不是参数不够能打,是你喂给它的数据没“喂饱”也没“喂对”!大语言模型的智能,从来不是“堆参数就能成”,而是参数和数据的“双向奔赴”,尤其是海量训练数据,堪称模型的“智能燃料”,少了它再牛的参数也白搭~
AI大模型学徒3 天前
人工智能·自然语言处理·nlp·n-gram
NLP基础(九)_N-gram模型马尔可夫模型是一种随机过程,具有以下特性:马尔可夫性:对于任意状态序列 S1,S2,…,Sn,满足:也就是说,下一步的状态只和当前状态有关,而与之前的历史无关。
8***B3 天前
java·开发语言·自然语言处理
Java自然语言处理先说基础文本处理。字符串切分看起来简单,但中英文混合的场景下直接按空格split绝对要出事。推荐用OpenNLP的SimpleTokenizer或者Stanford CoreNLP的PTBTokenizer,特别是后者能智能识别英文缩略词和带标点的数字。比如处理"Dr. Zhang在2021.08买了I.B.M.股票"这种文本,传统拆分会把每个点都切开,而专业分词器能保留原始语义单元。
walnut_oyb3 天前
论文阅读·人工智能·机器学习·计算机视觉·语言模型·自然语言处理
arXiv|SARLANG-1M:用于 SAR 图像理解的视觉-语言建模基准合成孔径雷达(SAR)是一项关键的遥感技术,具备强地表穿透能力,可实现全天候、全天时观测,能用于精准且持续的环境监测与分析。然而,由于SAR复杂的物理成像机制,以及其视觉表现与人类感知存在显著差异,SAR图像解译仍面临诸多挑战。近年来,视觉语言模型(VLMs)在RGB图像理解领域取得了显著成效,可提供强大的开放词汇解译能力与灵活的语言交互功能。但由于其训练数据分布中缺乏SAR专属知识,这些模型在SAR图像上的应用受到严重限制,导致性能欠佳。
jieshenai3 天前
人工智能·自然语言处理
5090显卡,基于vllm完成大模型推理前一张显卡是48GB,运行 Qwen/Qwen3-30B-A3B-Instruct-2507-fp8模型。在我换到5090显卡后,显存就不足以运行原先的模型了。
没有梦想的咸鱼185-1037-16634 天前
人工智能·语言模型·自然语言处理·chatgpt·数据分析
最新“科研创新与智能化转型“暨AI 智能体(Agent)开发、大语言模型(LLM)本地化部署与RAG/微调优化技术在过去几年里,人工智能技术取得了飞跃性进展,特别是大语言模型的崛起,已成为推动各行各业创新与变革的重要力量。大语言模型不仅在自然语言处理领域带来了突破,也为智能体的构建、自动化任务执行等多种应用场景提供了前所未有的可能。随着OpenAI的GPT系列模型的迭代升级,以及Llama、DeepSeek等开源大语言模型的不断涌现,智能体技术的应用已经深入到科研、教育、商业等多个领域,影响深远。
AI大模型学徒4 天前
算法·机器学习·自然语言处理·nlp·概率论·马尔可夫模型
NLP基础(八)_马尔可夫模型马尔可夫模型(Markov Model)是一种数学模型,用于描述一个系统在某个时间点的状态如何随着时间转移到另一个状态,并假设未来的状态仅依赖于当前状态,而与过去状态无关,这就是著名的 马尔可夫性(Markov property)。
HyperAI超神经4 天前
人工智能·语言模型·自然语言处理·cpu·gpu·编程语言·tvm
【TVM 教程】优化大语言模型TVM 现已更新到 0.21.0 版本,TVM 中文文档已经和新版本对齐。Apache TVM 是一个深度的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。更多 TVM 中文文档可访问 →Apache TVM
musk12124 天前
人工智能·自然语言处理
文本分析与挖掘,nlp,中文产品评论情感分析最佳实践方案
nihaoakekeke4 天前
人工智能·语言模型·自然语言处理
Fast Distributed Inference Serving for Large Language Models(6 封私信 / 4 条消息) Fast Distributed Inference Serving for Large Language Models - 知乎https://zhuanlan.zhihu.com/p/10305722112