llm

OpenBayes贝式计算1 小时前
microsoft·百度·llm
强化文字渲染与海报排版:百度开源文生图模型 ERNIE-Image-Turbo;告别大模型「遗忘」:微软 OpenMementos 上下文压缩训练数据集上线公共资源速递5 个公共数据集:PanScale 遥感全色锐化数据集MIA多步推理与决策轨迹数据集ParseBench 文档解析能力评测数据集
MrMao0072 小时前
llm·agent
我做了一个会"自我进化"的小红书运营 Agent——它自己上网搜笔记、读图片、蒸馏知识先说结论:我开源了一个叫 rednote-bootstrap 的项目,它是一个运行在 AI Agent 上的小红书运营技能包。
倘来之遇2 小时前
llm·rag·graphrag
GraphRAG 深度解析:从原理到实战GraphRAG 是微软开源的图检索增强生成框架,核心是以知识图谱为核心存储与检索单元,用实体 - 关系(节点 - 边)结构替代传统 RAG 的文本块,实现多跳推理、可解释检索与精准上下文合成,解决复杂场景下传统 RAG 的痛点。
一个处女座的程序猿4 小时前
llm·agent·memory
LLMs之Memory之MIA:《Memory Intelligence Agent》翻译与解读LLMs之Memory之MIA:《Memory Intelligence Agent》翻译与解读导读:这篇论文的核心贡献,是把深度研究代理的“记忆”从简单的长上下文检索,升级为可压缩、可训练、可在线进化的双通道系统;MIA 通过 Manager-Planner-Executor 架构、交替 RL 和 test-time learning,把历史经验真正转化为规划能力与执行能力,因此在多模态、文本、多跳推理以及无监督自演化场景里都表现出稳定而明显的提升。
TheRouter7 小时前
gpt·ai·ai作画·llm·openai
gpt-image-2发布第一天,我用它替换了文章配图的整套流程OpenAI 昨天(4月21日)发布了 gpt-image-2,中文文字渲染准确率据说到了 99%。我之前的文章配图一直用 HTML 写信息图 → Playwright 截图的土办法。今天花了一下午实测:gpt-image-2 能不能把这套笨重流程干掉?
渡边时雨10 小时前
后端·llm
大多数人搭 RAG,第一步就错了大多数工程师搭 RAG 系统,第一步就去研究选哪个 embedding 模型。这其实是反的。我见过不止一个团队,在 text-embedding-ada-002 和 bge-m3 之间来回横跳,跑了无数次 benchmark,最后发现系统效果不好——问题压根不在 embedding,在 chunking。
bryant_meng12 小时前
人工智能·深度学习·llm·agi·openclaw
【AGI】OpenClawOpenClaw 官网: https://openclaw.ai/中文文档: https://docs.openclaw.ai/zh-CN
J_bean1 天前
人工智能·ai·llm·大语言模型·token
大语言模型 API Token 消耗深度剖析在调用大语言模型(LLM)API 时,Token 统计不仅是计费的唯一依据,更是评估模型推理深度、响应延迟及上下文窗口管理的关键指标。本文旨在通过源码解析,帮助开发者彻底理解 Token 的消耗逻辑。
BeforeEasy1 天前
llm·agent·rag
结合Agent的RAG技术梳理【详细版】研究时间:2026年4月15日 | 所属领域:人工智能 | 研究对象类型:技术概念/技术范式Agent的RAG(Retrieval-Augmented Generation)技术是一种将检索增强生成与智能体(Agent)相结合的AI范式,它让Agent能够自主判断何时检索、如何检索、以及如何将检索结果整合到推理过程中,从而突破大语言模型的知识边界,实现更准确的问答和更可靠的决策。
CoderJia程序员甲1 天前
ai·大模型·llm·github·ai教程
GitHub 热榜项目 - 日榜(2026-04-21)生成于:2026-04-21共发现热门项目: 10 个榜单类型:日榜Token赞助:siliconflow
jump_jump1 天前
llm·agent·claude
Qwopus3.5 — 用 Reasoning SFT 释放 27B 模型的推理潜力你不需要 H100 集群,也不需要每月 $200 的 API 账单。一台 16GB 显存的笔记本,就能跑一个推理能力显著超越同级别开源模型的本地模型。
Baihai_IDP1 天前
人工智能·面试·llm
以 Nano-vLLM 为例,深入理解 LLM 推理引擎(Part 2)编者按: 你是否曾好奇,当我们向大语言模型输入一段文字、看着它逐字逐句生成回复时,背后那些动辄千亿参数的神经网络究竟在“计算”什么?它们又是如何在短短几秒内完成如此复杂的推理过程?
熊猫钓鱼>_>1 天前
百度·ai·大模型·llm·ernie·image·图像生成
ERNIE-Image 深度测评:百度 8B 小模型如何撼动文生图格局2026 年 4 月 15 日,百度文心大模型团队扔下了一颗重磅炸弹——开源文生图模型 ERNIE-Image-2。在开源文生图领域被 SD3、Flux、Qwen-Image 等大模型盘踞的当下,百度带来了一个只有 8B 参数的“小模型”,却宣称能在消费级显卡上跑出媲美顶级商业模型的效果。
龙侠九重天1 天前
ai·语言模型·自然语言处理·llm·prompt·提示词工程
Prompt Engineering 实战指南:如何高效与大模型对话2022 年 11 月,OpenAI 发布 ChatGPT,标志着大语言模型(Large Language Model,LLM)正式进入公众视野。此后,GPT-4、Claude 3、Gemini、DeepSeek 等模型相继问世,AI 能力实现了质的飞跃。根据多家市场研究机构的数据,截至 2024 年,全球使用大语言模型的用户规模已达到数亿级别,且仍在快速增长中。
sha0dow2 天前
llm
Agent 上下文窗口的有限与突破大语言模型驱动的智能体有一个绕不开的限制:上下文窗口容量固定。一旦对话历史超过窗口上限,最早的内容就会被丢弃。这相当于要求一个程序员在维护大型项目时,只能记住最近几分钟看过的代码——其他一切都要靠翻笔记。
带娃的IT创业者2 天前
人工智能·python·llm·claude·应用开发·anthropic·ai原生应用
深度解析 Claude Design:如何利用 Anthropic 最新设计范式构建 AI 原生应用最近,Hacker News 上一个名为 “Claude Design” 的话题引发了热烈讨论,短时间内收获了 733 票,冲上热门榜首。对于很多开发者来说,这可能只是 Anthropic 又一次常规的产品更新,但在我看来,这标志着 AI 应用开发从“Prompt Engineering(提示词工程)”向“Design Engineering(设计工程)”迈进的关键转折点。
koharu1232 天前
人工智能·llm·后训练
大模型后训练全解:SFT、RLHF/PPO、DPO 的原理、实践与选择本文覆盖范围:SFT 监督微调、RLHF(PPO)强化学习对齐、DPO 直接偏好优化,以及它们的变体、工具链、实战代码和选择决策。结合 InstructGPT、LLaMA 2/3、Zephyr、DeepSeek-R1、Qwen3 等真实案例说明。
薛定谔的猫3692 天前
ai·llm·agent·skill·automation·mcp·artificial intelligence
读懂 Agent, MCP, Skill: 2026 年 AI 自动化核心能力组合随着大语言模型(LLM)步入成熟期,AI 的形态正在发生剧变。如果说 2023-2024 年是“对话时代”,那么 2026 年我们将全面进入“行动时代”。在这个时代,AI 不再仅仅是一个能言善辩的聊天机器人,而是一个能够自主规划、调用资源并完成复杂任务的自动化实体。
缘友一世2 天前
人工智能·chatgpt·llm·agent
Harness Engineering:让 AI Agent 从“玩具“到“生产力“的工程革命三个工程师,五个月,100 万行生产级代码——其中没有一行是手写的。2026年2月,OpenAI Codex 团队用一组令人沉默的数据引爆了一个全新的技术概念:Harness Engineering。但真正值得思考的,不是这组数字本身,而是它揭示的一个根本性问题:为什么同样的模型,在不同团队手中会产生天壤之别的产出?
薛定谔的猫3692 天前
ai·自动化·llm·agent·mcp
深入浅出 MCP:如何利用 Model Context Protocol 构建强大的 AI Agent随着大语言模型 (LLM) 的快速发展,AI Agent (智能体) 已成为人工智能领域的前沿课题。然而,一个核心挑战始终存在:如何让 Agent 安全、高效、标准地访问外部数据和工具? 传统的集成方式往往需要为每个工具编写定制化的 API 适配器,这导致了生态的碎片化。