agentic

人肉推土机2 天前
人工智能·大模型·agentic·skills·clawdbot·moltbot
Clawdbot(Moltbot)源码部署全实测:从环境搭建到 WebChat 验证,避坑指南收好最近刷技术圈总刷到 Clawdbot(后来也叫 Moltbot),说是能搭私人 AI 助手,支持 WhatsApp、Telegram 这些常用通道,还能跑在自己设备上,不用依赖第三方服务 —— 想着拉下来测试一下功能,顺便研究一下其源码的实现。 于是拉上 GitHub 仓库https://github.com/openclaw/openclaw,打算从源码部署试试,过程里踩了不少坑,干脆整理成记录,给同样想折腾的朋友避避坑。
TGITCIC7 天前
langchain·工作流·rag·ai agent·ai智能体·langgraph·agentic
LangChain入门(十五)- LangGraph为什么这么香,看它是如何逆天DIFY的在构建复杂的 AI 应用时,我们常常面临一个核心挑战:如何优雅地处理多步骤、动态决策、状态依赖的执行流程。传统的链式调用(如 LangChain 的 LCEL)虽然简洁高效,但在面对“需要根据中间结果动态决定下一步操作”或“多次循环检索-推理”等场景时,往往显得力不从心。而市面上一些低代码平台(如 DIFY)虽然提供了可视化编排,却在灵活性与控制粒度上存在明显短板——尤其在需要精细干预每一步逻辑、实时反馈或并行处理多个知识源时,其“黑盒”特性反而成了瓶颈。
TGITCIC8 天前
langchain·rag·ai agent·agentic·智能体开发·rag增强检索·agentic flow
LangChain入门(十四)- Agentic RAG 的正确打开方式:用 LangChain 实现“有思考、可解释、不遗漏”的检索增强问答在构建检索增强生成(RAG)系统时,许多开发者会陷入一个两难:是追求极致效率,把所有检索结果一次性丢给大模型生成答案;还是牺牲一点性能,让 AI 分步骤“思考”并逐步输出中间结论,以提升透明度和用户信任?前者看似简洁高效,却容易变成黑盒;后者虽然体验友好,但若设计不当,极易导致重复检索、LLM 调用冗余、答案冲突等问题。最近,一种结合 LangChain 与 Qdrant 的 Agentic Flow 被广泛尝试:用户提问后,系统先用 LLM 动态拆解出多个子问题,再逐个检索、逐个生成中间回答,最后汇总成
亚里随笔8 天前
人工智能·分布式·llm·rl·agentic
MegaFlow:面向Agent时代的大规模分布式编排系统随着交互式和自主AI系统的快速发展,我们正步入Agent时代。在软件工程和计算机使用等复杂任务上训练智能体,不仅需要高效的模型计算能力,更需要能够协调大量Agent-环境交互的复杂基础设施。MegaFlow作为大规模分布式编排系统,为Agent训练工作负载提供高效的调度、资源分配和细粒度任务管理能力,成功实现了数万个并发Agent任务的协调执行,同时保持高系统稳定性和高效的资源利用率。
亚里随笔11 天前
人工智能·深度学习·机器学习·llm·agentic·rlvr
相对优势估计存在偏差——揭示群体相对强化学习中的系统性偏差问题在大型语言模型的后训练时代,强化学习从验证者奖励(RLVR)已成为提升模型推理能力的核心范式。以GRPO为代表的群体相对算法因其无需训练评判网络的简洁设计而备受青睐。然而,本文揭示了这一方法中一个被长期忽视的根本性问题:群体相对优势估计存在系统性偏差。本文不仅提供了首个理论分析,证明该估计器对困难问题会系统性低估优势、对简单问题会过度估计优势,还提出了基于历史感知的自适应难度加权(HA-DW)方案来纠正这一偏差。实验表明,该方法在多个数学推理基准上持续提升性能,为RLVR训练提供了新的理论见解和实践指导。
山顶夕景13 天前
大模型·llm·agent·智能体·agentic
【Agent】Agentic Reasoning for Large Language Models《Agentic Reasoning for Large Language Models》(https://arxiv.org/pdf/2601.12538,https://github.com/weitianxin/Awesome-Agentic-Reasoning)。看核心6个点,其中做了一些罗列,是个不错的索引。
和你一起去月球17 天前
ai·agent·agentic·设计与工程化
Agentic 架构设计与工程化(总结)随着 “人工智能 +” 行动被纳入国家战略,Agentic AI(智能体驱动的人工智能)已成为连接技术与产业的核心桥梁。从电商智能客服到教育创新课堂,从多智能体协作到私有化部署,Agentic 架构正在重塑各行各业的应用形态。作为一名 AI 领域的开发者,结合 Datawhale 开源社区的实践经验与《Agent 设计模式与工程化》的核心内容,本文将从学习心得、核心知识归纳、代码实战、踩坑指南到知识点扩展,全方位拆解 Agentic AI 的落地路径,助力零基础开发者(含文科生)快速入门。
和你一起去月球23 天前
大数据·ai·大模型·agent·agentic
Agent 应用开发与落地学习总结AI Agent 和 Agentic AI 的区分:python 示例如下所示:LLM 会识别用户需求,调用get_weather工具,输出包含 “location: Paris, France” 参数的工具调用指令,示例如下:
亚里随笔1 个月前
人工智能·游戏·llm·rl·agentic
GenEnv:让AI智能体像人一样在_游戏_中成长GenEnv框架通过在LLM智能体与可扩展的生成式环境模拟器之间建立难度对齐的协同进化博弈,实现了数据效率的显著提升。该框架将智能体训练视为一个两玩家课程游戏,通过动态调整任务难度来最大化学习信号,使7B参数模型在多个基准测试中性能提升高达40.3%。
亚里随笔1 个月前
人工智能·深度学习·机器学习·llm·rl·agentic
STAgent:专为时空推理设计的智能代理模型在现实世界的复杂任务中,如旅行规划、路线优化和地点推荐等,需要模型具备强大的时空理解能力和工具调用能力。本文介绍的STAgent是一种专门为此类任务设计的智能代理模型,通过构建稳定的工具环境、高质量的数据构建框架和级联训练配方,在保持通用能力的同时显著提升了在时空推理任务上的表现。该模型基于Qwen3-30B-A3B,通过三阶段优化流程实现了在TravelBench等基准测试上的优异性能。
亚里随笔1 个月前
深度学习·llm·rl·agentic·grpo
激活被遗忘的训练信号:ERPO框架如何让大模型在数学推理中更进一步随着大型语言模型在数学、编程等复杂推理任务中的表现日益出色,如何进一步提升其推理能力成为研究热点。本文介绍了一种创新的训练框架——ERPO(Explore Residual Prompts in Policy Optimization),通过巧妙利用训练过程中被"遗忘"的残余提示,显著提升了模型的数学推理性能,在多个基准测试中取得了显著改进。
亚里随笔2 个月前
人工智能·语言模型·自然语言处理·llm·rl·agentic
推理语言模型训练策略的协同作用:预训练、中间训练与强化学习的交互机制近年来,强化学习技术在语言模型推理能力提升方面取得了显著进展,但后训练是否真正扩展了模型在预训练期间获得的推理能力仍存在争议。这项研究通过完全可控的实验框架,揭示了预训练、中间训练和强化学习后训练之间的因果贡献关系,为理解推理语言模型训练策略提供了重要基础。
亚里随笔2 个月前
人工智能·深度学习·机器学习·llm·rlhf·agentic
MiniRL:用LLM稳定强化学习的新范式与第一阶近似理论这篇论文提出了一种新颖的强化学习与大型语言模型结合的理论框架,揭示了何时以及如何通过token级目标函数优化序列级奖励。通过数十万GPU小时的实验验证,论文系统性地分析了训练稳定性关键因素,为MoE模型的RL训练提供了实用指导方案。
亚里随笔2 个月前
人工智能·语言模型·自然语言处理·llm·rlhf·agentic
DeepSeek-V3.2:开源大语言模型的新里程碑,在推理与智能体任务中突破性能边界DeepSeek-V3.2作为最新开源大语言模型,通过创新的稀疏注意力机制、可扩展的强化学习框架和大规模智能体任务合成管道,成功缩小了开源与闭源模型之间的性能差距。该模型不仅在多个推理基准测试中与GPT-5表现相当,其高性能变体DeepSeek-V3.2-Speciale更在IMO 2025和IOI 2025等国际顶级竞赛中获得金牌水平表现,标志着开源LLM进入全新发展阶段。
亚里随笔3 个月前
人工智能·语言模型·自然语言处理·llm·agentic
突破智能体训练瓶颈:DreamGym如何通过经验合成实现可扩展的强化学习?本文将介绍DreamGym,一个革命性的强化学习框架,它通过合成多样化经验来解决智能体训练中的核心挑战。DreamGym首次提出基于推理的经验模型,能够在不依赖昂贵真实环境交互的情况下,生成一致的状态转换和反馈信号,为自主智能体的在线强化学习训练提供了可扩展的解决方案。在WebArena等非RL就绪任务中,DreamGym的性能超越所有基线30%以上;在RL就绪但成本高昂的环境中,它仅使用合成交互就匹配了GRPO和PPO的性能。
亚里随笔3 个月前
人工智能·语言模型·自然语言处理·llm·agentic
AsyPPO_ 轻量级mini-critics如何提升大语言模型推理能力大型语言模型强化学习训练面临计算瓶颈,传统对称actor-critic架构导致critic模型参数量巨大,训练成本高昂。本文介绍的Asymmetric Proximal Policy Optimization (AsyPPO)算法通过创新的非对称架构设计,使用轻量级mini-critics组合实现高效价值估计,在保持性能的同时显著降低计算开销。实验表明,该方法在多个数学推理基准上平均提升超过3%准确率,训练内存占用减少20%,每步训练时间缩短约20秒。
Sylvan Ding4 个月前
ide·vscode·pycharm·extension·插件·agentic·氛围编程
VSCode插件推荐 2025 - 拥抱 Agentic Coding 时代:是时候从 PyCharm 切换到 VSCode 生态了!各位开发者朋友们,如果你还在坚守 PyCharm,那我不得不告诉你一个「残酷」的真相:你可能错过了 AI 编程革命的最前线!
逐云者1234 个月前
大模型应用·agentic·ai架构设计·业务语义建模·智能系统设计·任务流引擎·知识工程
智能Agentic业务系统设计:从任务语义到状态流转的全栈思考“未来的企业系统,不再是表单与审批的集合,而是一个能理解业务语义、追踪状态演化,并主动提出决策建议的智能体。”
OliverYeung4 个月前
人工智能·ai·llm·rag·agentic·deepseek·agno
【AskAI系列课程】:P3.Agno从阿里云百炼知识库中检索知识库片段并回答用户问题这是【AskAI系列课程】的第 3 课:实现 Bailian retriever 并将其集成到 Agno Agent 中,让 AI 助手能够基于知识库内容(我的网站文档和博客内容)回答用户问题。
亚里随笔5 个月前
人工智能·语言模型·自然语言处理·llm·rlhf·agentic
小型语言模型:智能体AI的未来?本文解读NVIDIA研究团队论文,颠覆“越大越好”的语言模型认知,论证小型语言模型(SLMs)在智能体AI(Agentic AI)中的性能、经济性与适配性优势,结合案例与迁移算法,为Agentic系统低成本部署提供思路,回应行业对LLM依赖的惯性挑战。