agent

安思派Anspire4 小时前
aigc·openai·agent
Google 新 LLM 仅需 0.5GB 内存即可运行——如何在本地对其进行微调几天前,Google 悄然发布了一款小型 AI 模型,名为 Gemma 3 270M。它体型极小,甚至能在配置极低的设备上运行。当然,也不是真的能在“土豆”(指完全无法使用的设备)上运行,但它仅需约 0.5GB 内存。这……基本上相当于没占多少内存。
GoGeekBaird17 小时前
后端·github·agent
关于垂类AI应用落地行业的方法论思考最近在查看各行业垂类 AI Agent 应用落地的案例,同时也在反思自己过去做过的一些 AI 应用。结合在AI Engineer World Fair (4th June 2025)上看到《Own your vertical: A playbook for building a domain-native LLM application》一文中的思路,我整理并延伸出一份关于垂类 AI 应用落地的实施方案。我尝试从整体框架到实施细节进行一次系统化梳理,希望能为正在探索 AI 垂直化落地的团队提供参考,也期待
AI大模型18 小时前
程序员·llm·agent
无所不能的Embedding(06) - 跨入Transformer时代~模型详解&代码实现上一章我们聊了聊quick-thought通过干掉decoder加快训练, CNN—LSTM用CNN作为Encoder并行计算来提速等方法,这一章看看抛开CNN和RNN,transformer是如何只基于attention对不定长的序列信息进行提取的。虽然Attention is All you need论文本身是针对NMT翻译任务的,但transformer作为后续USE/Bert的重要组件,放在embedding里也没啥问题。以下基于WMT英翻中的任务实现了transfromer,完整的模型代码详见D
AI Echoes21 小时前
人工智能·python·langchain·开源·agent
LLMOps平台:开源项目LMForge = GPTs + Coze最近,我发现了一个超级实用的开源项目——LMForge-End-to-End-LLMOps-Platform-for-Multi-Model-Agents(以下简称LMForge)。这个项目是一个端到端的LLMOps(Large Language Model Operations)平台,专为多模型AI Agent开发设计,支持一键Docker部署、知识库管理、工作流自动化和企业级安全。它基于Flask + Vue3 + LangChain构建,对标大厂级AI应用开发流程,能帮助开发者轻松从Prompt工程
聚客AI1 天前
人工智能·agent·mcp
🚀从零构建AI智能体:九大核心技术拆解与落地建议本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发及AI算法学习视频及资料,尽在聚客AI学院。今天我们来系统梳理AI智能体架构设计的九大核心技术,这些技术构成了现代AI应用开发的核心框架,涵盖从基础推理到多智能体协作、从数据处理到人机交互的关键层面。欢迎各位指正交流。
Aloudata技术团队1 天前
数据分析·agent
当“数据波动”遇上“智能归因”,谁在背后画出那张因果地图?不是所有“下降”都值得恐慌,也不是所有“增长”都值得庆祝。 真正决定成败的,是你能否在数据异动发生的那一刻,就看清它背后的“为什么”。
字节跳动数据平台1 天前
agent
认知引擎:企业下一个决胜分水岭在刚刚落幕的火山引擎AI创新巡展中,数智平台解决方案总经理萧然分享了一个关键观点:大模型技术正在推动企业从“信息时代”迈向“认知时代”。这场变革的本质,是企业核心竞争力从数据处理能力向认知能力的跃迁。而认知能力,正是企业对商业世界的深刻理解、精准判断与科学决策的能力。
产品研究员1 天前
aigc·agent·产品经理
AI智能体管理后台原型拆解:5大核心模块+模版分享AI时代来临。在近两年的产品设计工作中,越来越多企业在探索将AI Agent智能体引入业务场景,用于客服、知识问答、任务执行等环节。随着智能体数量和应用场景的扩展,后台管理成为“承载信息、提升效率、保证可控”的关键工具。因此,一个统一的后台管理系统就显得尤为重要。本文将结合墨刀素材广场中的一款AI Agent智能体管理后台原型素材,拆解其中的设计要点,并在文末分享可直接使用的原型模版,供产品经理们参考。
代码里程碑1 天前
agent
Human-in-the-loop 如何拯救智能体的骚操作?今天继续讨论 LangGraph 的实践,这次我们来聊聊 human-in-the-loop。毕竟智能体再智能,也难免会出 “骚操作”—— 比如瞎编数据、做超出权限的决策,而 human-in-the-loop 就是给智能体装个 “刹车”,关键时刻让人类接手决策。
非晓为骁2 天前
agent·trace·deerflow·langsmith
【Agent】DeerFlow Planner:执行流程与架构设计(基于真实 Trace 深度解析)本文档系统阐述 DeerFlow 中 Planner 的职责边界、端到端执行流程、关键节点设计、数据结构、容错与人审机制,以及与研究/编码子代理的协同方式。面向开发与运维读者,帮助快速理解与调优 Planner 相关链路。
大模型教程2 天前
程序员·llm·agent
12天带你速通大模型基础应用(四)声音克隆技术实践本节内容的目标是:实践声音克隆技术。理解CosyVoice的工作原理,完成声音克隆任务。目录结构如下:
大模型教程2 天前
程序员·llm·agent
12天带你速通大模型基础应用(三)LLM全流程部署教程在实际工作中,一个LLM模型最重要的能力是解决实际业务问题。本节内容的目标是:部署Datawhale的self-llm项目,选择AutoDL平台进行环境配置,完成ChatGLM模型的本地部署全流程,重点体验理解从环境搭建到模型部署的完整工作流。目录结构如下:
AI大模型2 天前
程序员·llm·agent
无所不能的Embedding(05) - skip-thought的兄弟们[Trim/CNN-LSTM/quick-thought]这一章我们来聊聊skip-thought的三兄弟,它们在解决skip-thought遗留问题上做出了不同的尝试【Ref1~4】, 以下paper可能没有给出最优的解决方案(对不同的NLP任务其实没有最优只有最合适)但它们提供了另一种思路和可能性。上一章的skip-thought有以下几个值得进一步探讨的点
AI大模型2 天前
程序员·llm·agent
无所不能的Embedding(04) - skip-thought & tf-Seq2Seq源码解析前一章Doc2Vec里提到,其实Doc2Vec只是通过加入Doc_id捕捉了文本的主题信息,并没有真正考虑语序以及上下文语义,n-gram只能在局部解决这一问题,那么还有别的解决方案么?依旧是通用文本向量,skip-thought尝试应用encoder-decoder来学习包含上下文信息和语序的句子向量。
安思派Anspire2 天前
aigc·openai·agent
你不需要 GraphRAG!构建一个多策略图谱思维(Multi-Strategy Graph Thinking)AI Agent在本文中,我将通过一个超简洁的教程,向你展示如何构建多策略图谱思维(Multi-Strategy Graph Thinking),进而为你的业务或个人使用打造一个功能强大的 Agent 聊天机器人。
aiwery2 天前
前端·agent
大模型场景下的推送技术选型:轮询 vs WebSocket vs SSE在大模型问答(LLM Chat)等实时场景中,用户期待能像 ChatGPT 一样边生成边输出,而不是等待完整结果。 实现这一效果的关键技术之一,就是 SSE(Server-Sent Events)流式输出。
一如年少模样丶2 天前
openai·agent·asr·vllm·sglang·lmdeploy·gpt_server
GPT Server 文档GPT Server是一个用于生产级部署LLMs、Embedding、Reranker、ASR、TTS、文生图、图片编辑和文生视频的开源框架。
GitLqr3 天前
agent·ai编程·mcp
AI洞察 | 新一代 Agent 框架与 3D 桌面伴侣智能体欢迎关注微信公众号:科技洞察者 📌今天,我们聚焦 AI 智能体技术的前沿动态,从开源框架到桌面伴侣,一览智能体如何赋能开发者与用户。
大模型教程3 天前
程序员·llm·agent
12天带你速通大模型基础应用(一)Prompt提示词工程大模型应用中,你是否有这样的问题,对模型输入问题有时能够得到期望的回答,有时回答的结果却又不符合预期?引导词模模糊糊,只是凭感觉去用,有时用的好有时结果差?通过这篇文章,我们系统介绍Prompt的用法,不再凭感觉,而是高效的去使用。
coder_pig3 天前
langchain·aigc·agent
👦抠腚男孩的AI学习之旅 | 6、玩转 LangChain (二)😄 上节从 传统AI应用开发 的 "痛点" (需手动管理上下文、多步骤任务处理复杂、外部集成工具需大量样板代码、扩展性差) 引出了功能强大的 LangChain,然后系统讲解了 "七大核心组件" 中的前四个:Models (LLM模型配置)、Prompts (提示词模板)、Tools (工具函数) 和 Chains (链式调用-LCEL),本节把剩余几个组件过完~