自然语言处理

翱翔的苍鹰1 小时前
人工智能·深度学习·语言模型·自然语言处理·langchain
LangChain 中 DeepAgent 介绍、使用手册及场景化开发指南# LangChain 中 DeepAgent 介绍、使用手册及场景化开发指南DeepAgent 是 LangChain 生态中,基于 Google DeepMind 大模型(如 Gemini 系列)封装的**高阶智能体组件**,并非 LangChain 内置原生组件,核心依赖 `langchain-google-deepmind` 包与 DeepMind API 协同,是“DeepMind 模型能力 + LangChain 工程化工具链”的结合体。它区别于普通 Agent,依托 DeepMind 模型的
xier_ran3 小时前
阿里云·自然语言处理·langchain·云计算·agent·rag
【第二周】RAG与Agent实战12:LangChain访问阿里云嵌入模型在之前我们学习了如何让大模型“说话”(LLMs)和“聊天”(Chat Models)。但在构建 RAG(检索增强生成)系统时,还有一个至关重要的环节:让模型“理解”文本的语义。 计算机无法直接理解“苹果”和“水果”之间的关系,但它能理解向量(Vector)。通过将文本转换为高维空间中的向量,我们可以计算它们之间的相似度。这个过程叫做Embedding(嵌入)。 本文将带你掌握如何在 LangChain 中使用阿里云 DashScope 的 Embedding 模型,将文字转化为机器可计算的数字向量。
V搜xhliang02463 小时前
大数据·人工智能·机器学习·自然语言处理·机器人
手术机器人导航软件手术机器人导航软件与工业机器人最大的区别在于:精度要求更高(亚毫米级)、安全冗余更严(生命攸关)、必须与医学影像深度融合。 基于当前国内外最新研究和临床实践,梳理出一套完整的手术机器人导航软件系统方案。 一、核心架构:从医学影像到精准操作的“数字桥梁” 手术机器人导航软件的核心使命是:将术前/术中的医学影像,转化为机器人可执行的精准操作指令。其典型架构采用三层协同模式:
V搜xhliang02463 小时前
人工智能·深度学习·计算机视觉·自然语言处理·知识图谱
VLA 模型微调与 ROS 2 集成将VLA(视觉-语言-动作)模型与ROS 2集成,是打通“AI大脑”与“机器人身体”的关键一步。基于之前搭建的Ubuntu+ROS 2+Isaac Sim环境,梳理出一条完整的技术路径:从模型微调适配的机器人,到部署为ROS 2节点实现实时控制。 一、VLA模型微调:让通用模型学会你的具体任务 VLA模型通常在大规模机器人数据集(如Open X-Embodiment)上预训练,具备通用操作能力,但要适配你的具体机器人(如URDF定义的机械臂或移动底盘)和具体任务(如“抓取红色方块”),微调是必不可少的步骤
Gallen19833 小时前
人工智能·语言模型·自然语言处理
AI人工智能领域名词及大语言模型总结(完整版)第一部分:AI人工智能领域核心固有名词(按领域分类)一、基础核心名词二、智能体与相关名词三、数据与知识库相关名词
沪漂阿龙4 小时前
人工智能·自然语言处理
从“火星文”到语义理解:破解NLP中的OOV未登录词难题技术圈有句玩笑话:“模型没见过的词,就是乱码。” 但在真实场景中,社交评论、直播弹幕、专业术语层出不穷, 如果词向量里查无此词,模型是如何“猜”出意思的?
咚咚王者4 小时前
人工智能·自然语言处理·transformer
人工智能之语言领域 自然语言处理 第十二章 Transformer架构第十二章 Transformer架构Transformer 是自然语言处理(NLP)领域的革命性架构,由 Google 在 2017 年论文《Attention Is All You Need》中提出。它完全摒弃了 RNN 和 CNN,仅依靠注意力机制实现序列建模,在机器翻译任务上首次超越传统模型,并成为 BERT、GPT 等大语言模型的基石。本章将系统解析 Transformer 的整体结构、核心组件、训练技巧、主流变体,并通过机器翻译实战完整演示其构建过程。
Flying pigs~~4 小时前
人工智能·算法·自然语言处理·大模型·文本分析处理
自然语言处理(NLP)开胃小菜NLP(Natural Language Process,自然语言处理)是人工智能领域的一个重要分支,其核心目标是让程序能够理解并处理我们所说的语言文字。
我材不敲代码5 小时前
人工智能·自然语言处理·tf-idf
Python 实战——红楼梦文本分析全流程:从分卷处理到分词再到TF-IDF 提取核心关键词经典文本的量化分析是自然语言处理(NLP)的经典应用场景,《红楼梦》作为中国古典小说巅峰之作,其文本结构清晰、人物关系复杂,非常适合作为 NLP 实战案例。本文将从文本分卷切割、中文分词与停用词过滤、TF-IDF 提取核心关键词三个维度,完整实现《红楼梦》文本的自动化分析,帮助大家掌握从原始文本到核心特征提取的全流程。
小陈phd6 小时前
自然语言处理·transformer
多模态大模型学习笔记(十七)——基于 BGE+DeepSeek+Qdrant 的 RAG 文档问答系统实战与优化RAG(Retrieval-Augmented Generation,检索增强生成) 是一种结合检索和生成的 AI 技术架构。它的核心思想是:
2301_764441338 小时前
人工智能·深度学习·语言模型·自然语言处理·数据挖掘·数据分析·开源
MiroFish:多智能体技术的开源AI推演预测引擎MiroFish是一款基于多智能体技术的开源AI预测引擎,能够基于现实种子信息构建平行数字世界进行仿真推演。下面为您详细介绍这个项目以及本地部署和使用流程。
V搜xhliang024617 小时前
大数据·人工智能·深度学习·机器学习·自然语言处理·机器人
机器人建模(URDF)与仿真配置在我们搭建好了开发环境之后,下一步就是赋予机器人“身体”。URDF 就是这个身体的蓝图,而仿真配置则是让这个身体在虚拟世界中“活过来”的关键一步。 📝 第一部分:URDF——机器人的“骨骼”与“皮肤” URDF 的核心是描述机器人的运动学与动力学属性,它由一套 XML 标签构成 。
xier_ran19 小时前
自然语言处理·agent·rag
【第二周】 RAG与Agent实战03:OpenAI库的流式输出在构建 AI 应用(尤其是 RAG 和 Agent)时,流式输出(Streaming) 是提升用户体验的关键技术。它能让用户像看“打字机”一样实时看到模型生成的内容,而不是等待所有结果生成完毕后才一次性显示。 本文将详细介绍如何使用 OpenAI Python SDK 实现流式输出,并提供完整的可运行代码示例。
Trisyp19 小时前
人工智能·自然语言处理·word2vec
Word2vec核心模型精讲:CBOW与Skip-gram在自然语言处理领域,如何让机器“理解”词汇的语义一直是个核心挑战。2013年,Google推出的Word2vec工具彻底改变了这一局面,它通过神经网络将词汇映射到低维稠密向量空间中,使得语义相近的词在向量空间中也相互靠近。
AC赳赳老秦21 小时前
android·大数据·运维·人工智能·自然语言处理·自动化·deepseek
DeepSeek优化多智能体指令:避免协同冲突,提升自动化流程稳定性DeepSeek优化多智能体指令:避免协同冲突,提升自动化流程稳定性摘要随着人工智能技术的飞速发展,特别是大型语言模型(LLM)能力的显著提升,多智能体系统(Multi-Agent Systems, MAS)在自动化流程中的应用日益广泛和深入。DeepSeek作为先进的AI模型,在多智能体协同领域展现出强大的潜力。然而,多智能体系统固有的复杂性,特别是智能体间因目标、资源或信息不对称引发的协同冲突,严重威胁着自动化流程的稳定性和效率。本文深入探讨了如何利用DeepSeek优化多智能体指令,通过精细化的指令
xier_ran21 小时前
自然语言处理·金融·prompt·agent·rag
【第二周】RAG与Agent实战08:提示词优化案例_金融文本匹配判断在构建RAG(检索增强生成)系统时,一个常见的痛点是:检索到的文档片段与用户问题看似相关,实则答非所问。如果将这些低质量的片段直接喂给大模型生成答案,会导致“幻觉”或错误的结论。 因此,在生成答案之前,增加一个**“文本匹配判断”(或称相关性重排序/过滤)的步骤至关重要。 本文将通过一个金融文本匹配**的实战案例,演示如何利用 Few-Shot Prompting(少样本提示) 和 结构化输入格式,训练大模型精准判断两段文本是否在语义上匹配(即:这段文档是否能回答这个问题/是否与这段描述一致)。
xier_ran1 天前
自然语言处理·agent·rag
【第二周】RAG与Agent实战04:OpenAI库附带历史消息调用模型在构建智能对话系统(Chatbot)、RAG(检索增强生成)或 Agent(智能体) 时,上下文记忆(Context Memory) 是核心能力之一。模型本身是无状态的,它不知道您上一句说了什么,除非您显式地将历史对话记录传递给它们。
Jackson@ML1 天前
人工智能·自然语言处理·nlp
自然语言处理概要By Jackson@ML翻遍身边的图书,无论是图书馆馆藏著作,还是新华书店售卖的书籍,都会发现关于自然语言处理的书籍不少,但是,能够让人眼前一亮的书籍,则寥寥无几。
咚咚王者1 天前
人工智能·自然语言处理
人工智能之语言领域 自然语言处理 第十一章 注意力机制第十一章 注意力机制注意力机制(Attention Mechanism)是自然语言处理(NLP)近十年来最具影响力的突破之一,它模拟人类“聚焦关键信息”的认知过程,使模型能够动态地关注输入中最相关的部分。从早期的机器翻译改进,到如今 Transformer 架构的核心组件,注意力机制彻底改变了序列建模的方式。本章将深入浅出地讲解注意力机制的核心思想、数学原理、经典类型,并通过可视化与代码实现帮助你真正掌握这一关键技术。
xier_ran1 天前
自然语言处理·prompt·agent·rag
【第二周】RAG与Agent实战07:提示词优化案例_金融信息抽取在金融领域的 RAG(检索增强生成)和 Agent 系统中,非结构化文本的结构化提取是最常见的需求之一。我们需要从杂乱的新闻、公告或研报中,精准地提取出“时间”、“股票代码”、“价格”、“成交量”等关键字段,并将其转换为程序可直接处理的 JSON 格式。 然而,金融文本往往存在表述多样、单位不统一(人民币/美元)、甚至关键信息缺失的情况。如何让大模型稳定输出符合 Schema 定义的 JSON 数据? 本文将通过一个金融信息抽取的实战案例,深入讲解如何结合 Few-Shot Prompting(少样本提示