自然语言处理

狮子座明仔6 小时前
人工智能·深度学习·语言模型·自然语言处理
Plan-and-Act:让AI智能体学会“先想后做“📖 论文标题:Plan-and-Act: Improving Planning of Agents for Long-Horizon Tasks 👥 作者:Lutfi Eren Erdogan, Zhengyuan Yang, Linjie Li, Shuohang Wang, Ahmed Awadallah, Chenguang Zhu, Liangke Gui, Lijuan Wang 🏫 机构:Microsoft 📅 发表:arXiv 2503.09572 🔗 论文链接:https://a
renhongxia18 小时前
人工智能·信息可视化·语言模型·自然语言处理·数据分析·机器人
多机器人环境监测中的异质性,用于解决时间冲突任务在多机器人系统执行持续性任务时,若需中断处理紧急的时效性任务,常面临性能平衡的挑战。本研究以区域巡逻与异常无线电信号定位的双重任务场景为例,探讨这一平衡问题。
淬炼之火13 小时前
人工智能·语言模型·自然语言处理
图文跨模态融合基础 2 :LLM工程总览1.回顾LLM原理2. LLM工程化挑战2.1. 自然语言(NLP)歧义2.2. 成本和延迟2.3. 提示、微调、替代方案
武汉唯众智创15 小时前
人工智能·语言模型·自然语言处理·大语言模型·自助式 ai 心理咨询系统·ai 心理咨询系统·ai 心理咨询
基于大语言模型的自助式 AI 心理咨询系统1.1 时代背景:传统心理咨询的痛点与 AI 技术的破局在快节奏、高压力的现代社会,心理健康问题日益凸显,焦虑、抑郁等情绪障碍困扰着众多人群 。据世界卫生组织(WHO)数据,全球约有 10 亿人正遭受精神健康问题的折磨,每 40 秒就有一人因自杀离世 。在中国,抑郁症患者超 9500 万,青少年抑郁检出率达 24.6%。这些数字背后,是对心理健康服务的迫切需求。
Benaldo_Y15 小时前
人工智能·语言模型·自然语言处理
大语言模型(LLM)以deepseek举例: 通过类比,学习LLM改进于Transformer的一些方法MoE 是一种稀疏激活的神经网络架构设计。在现代大语言模型(LLM)中,MoE 被用于在不显著增加计算成本的前提下大幅提升模型容量。 这里和之前用的Feed Forward Net(FFN)对比一下: 在 Transformer 中,每个 FFN 层通常由两个线性变换 + 激活函数组成, 这两个全连接的参数量在大模型下太大了 假如有2048的参数量,几乎有204820482的参数量(忽略b),忒多了 所有 token 都要
chinesegf16 小时前
人工智能·语言模型·自然语言处理
嵌入模型和大语言模型的关系「嵌入模型(ONNXMiniLM_L6_V2/bert-base-chinese/nomic-embed-text)」和「大语言模型(qwen:1.5b/deepseek-r1)」的本质区别 ——嵌入模型只有「编码能力」(文本→向量),无推理 / 生成能力;而 qwen:1.5b/deepseek-r1 是具备「推理、对话、生成能力」的大语言模型(LLM),两者在 RAG(检索增强生成)等场景中是「分工协作」的关系,下面用通俗的语言拆解清楚:
Francek Chen16 小时前
人工智能·pytorch·深度学习·自然语言处理·easyui
【自然语言处理】02 文本规范化【作者主页】Francek Chen 【专栏介绍】 ⌈ ⌈ ⌈自然语言处理 ⌋ ⌋ ⌋ 自然语言处理 (Natural Language Processing, NLP) 是人工智能领域的重要研究方向,是一门集计算机科学、人工智能和语言学于一体的交叉学科,通过语法分析、语义理解等技术,实现机器翻译、智能问答、情感分析等功能。它包含自然语言理解和自然语言生成两个主要方面,研究内容包括字、词、短语、句子、段落和篇章等多种层次,是机器语言和人类语言之间沟通的桥梁。 【GitCode】专栏资源保存在我的GitCo
来两个炸鸡腿16 小时前
人工智能·学习·自然语言处理
【Datawhale组队学习202601】Base-NLP task05 高级微调技术无论是 PEFT 还是全量微调,主要方法大多是有监督微调(Supervised Fine-tuning, SFT),即用 成对的“(指令, 回答)” 数据来训练模型。
玄同76517 小时前
数据库·人工智能·python·sql·postgresql·自然语言处理·知识图谱
SQLAlchemy 会话管理终极指南:close、commit、refresh、rollback 的正确打开方式【个人主页:玄同765】大语言模型(LLM)开发工程师|中国传媒大学·数字媒体技术(智能交互与游戏设计)
小陈phd17 小时前
前端·人工智能·react.js·自然语言处理
langGraph从入门到精通(十一)——基于langgraph构建复杂工具应用的ReAct自治代理Tool Calling Agent 的局限性又在于:虽然它可以自主选择工具,但在其架构中,每次仅能执行一次函数调用(无论是单个外部函数还是多个外部函数)**。因此,当任务需要依次执行 A 工具、B 工具和 C 工具时,它无法支持这种自主控制的过程。因此,面对这种更复杂的需求,就需要引入了 Full Autonomous(自治循环代理)架构,即如下图所示:    Full Autonmonous 以两种主要的方式去扩展了Agent对工作流的控制,分别是:
时见先生1 天前
开发语言·人工智能·python·自然语言处理·conda
Python库和conda搭建虚拟环境这是最常用且最直观的方法,无需进入 Python 代码环境即可查看。如果你想知道某个特定库(例如 numpy)安装在哪里,使用 show 命令:
TW-NLP1 天前
自然语言处理
【开源推荐】AgentForce:当 GraphRAG 遇上 Agentic Workflow,打造下一代 AI 智能体平台摘要:传统的 RAG 系统只能“检索”片段,往往缺乏全局观。今天推荐一个基于 Python 3.12+ 和 FastAPI 构建的开源项目 AgentForce。它融合了 GraphRAG(知识图谱增强)的认知能力与 Agentic Workflow(代理工作流)的执行能力,支持动态规划、多模态知识库构建及可视化交互,是学习和构建下一代 AI 应用的绝佳范例。
123_不打狼2 天前
人工智能·自然语言处理
自然语言处理简介让计算机具备三大能力:计算机无法直接理解文字,需将其转换为数字(向量),这是 NLP 的第一步(这里简单介绍三种方法):
KG_LLM图谱增强大模型2 天前
人工智能·语言模型·自然语言处理
多智能体大语言模型框架赋能医学等多领域低资源命名实体识别:知识检索、消歧与反思分析的创新实践本文提出KDR-Agent,一种创新性多智能体大语言模型框架,通过知识检索、实体消歧和反思分析三大机制,有效解决多领域低资源场景下的命名实体识别难题,显著提升模型在未见领域的泛化能力,为人工智能在信息抽取领域的应用提供新范式。
老鱼说AI2 天前
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理
论文精读第八期:Quiet-STaR 深度剖析:如何利用并行 Attention 与 REINFORCE 唤醒大模型的“潜意识”?以前的 CoT(思维链)像是在教模型“应试”,必须有题目、有提示才肯推理。而 Quiet-STaR 的出现,标志着大模型开始学会了“像学者一样阅读”——在海量的互联网文本中,通过预测未来的文字,自发地学会了“三思而后行”。这篇博客将剥开复杂的数学外衣,通俗解读 DeepMind/Stanford 这一开创性工作:当 AI 拥有了看不见的“内心独白”,通往 AGI 的路是否缩短了一程?
123_不打狼2 天前
人工智能·学习·自然语言处理
自然语言处理(NLP)学习路线一、 前置基础阶段(必备)1. 编程语言与工具2. 数学基础3. 机器学习基础二、 传统 NLP 阶段(打牢方法论)
zhangfeng11332 天前
人工智能·语言模型·自然语言处理
大语言模型训练不用bpe算法可以不可以 ,BPE 是算法,SentencePiece 是工具箱可以,但“不用 BPE”≠“什么都不做”,而是把 tokenizer 退化成 字符级(character-level) 或者 SMILES 字符级。 这样做确实能跑,但代价远远不只是“比较耗资源”那么简单,基本属于不可接受。给你个量化对比就明白了:
淬炼之火2 天前
人工智能·语言模型·自然语言处理
图文跨模态融合基础:大语言模型(LLM)1.LLM简介2.结构鸟瞰3.Transformer3.1. 词嵌入(Word Embedding)3.2. 循环神经网络(Recurrent Neural Networks,RNN)
GRITJW2 天前
自然语言处理
看一遍就懂-大模型架构及encoder-decoder详细训练和推理计算过程BERT(Encoder-only,用于理解任务):GPT(Decoder-only,用于生成任务):
来两个炸鸡腿2 天前
人工智能·学习·自然语言处理
【Datawhale组队学习202601】Base-NLP task04 参数高效微调–自 BERT 模型发布以来,“预训练-微调”(Pre-train and Fine-tune) 的范式在自然语言处理领域取得了巨大成功。 不过,当模型参数规模从 BERT 的数亿级别跃升至 GPT-3 的千亿级别时,传统的 全量微调(Full Fine-Tuning) 遇到了挑战。