llm

深度学习机器2 小时前
人工智能·算法·llm
RAG Chunking 2.0:提升文档分块效果的一些经验在基于大语言模型的RAG系统里,文本分块是非常关键的一步。分块做得好,后续的向量检索、结果召回和生成质量都会更稳更准。除了大家常用的固定大小、递归、语义、按文档等切法,至少还有好几种策略,能显著提升检索准确率、保持上下文连续,并适配不同任务。
智泊AI3 小时前
llm
一文讲清:MoE混合专家模型是什么?在大模型技术快速发展的今天,模型规模的不断扩展已成为推动性能提升的核心因素。但传统的"密集"(Dense)架构,其每次推理都需调用全部参数,正面临着计算成本和能耗的巨大瓶颈。
大模型教程3 小时前
langchain·llm·agent
AI智能体开发框架LangChain & LangGraph快速入门实战(包含LangSmith)本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。最近乱七八糟的事太多,今天来点偏技术实战的,带大家用LangChain & LangGraph快速入门用编程创建智能体,用LangSmith进行追踪,Agent-Chat构建Agent UI。
大模型教程3 小时前
程序员·langchain·llm
一图看懂LangChain-AI框架关系,快速选对合适库,轻松开发智能体本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。LangChain-AI是一个由多个开源框架组成的生态系统,但这些框架之间的关系对于许多人来说仍然不够明确,导致在使用时难以判断该选择哪个框架。为了帮助大家更清晰地理解这些框架的定位,今天我们通过一张图来展示它们之间的关系,并详细说明每个框架适用的场景。
AI大模型4 小时前
程序员·llm·agent
小白也能训大模型!Hugging Face用「200页手册」亲自教学,连踩的坑都告诉你了...本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。对于技术小白而言,能否快速从零开始训练一个世界级的大语言模型(LLM)呢?
CoderJia程序员甲5 小时前
ai·开源·llm·github
GitHub 热榜项目 - 日榜(2025-11-10)生成于:2025-11-10共发现热门项目:18 个榜单类型:日榜本期GitHub热榜依然由AI领域领跑,整体展现出“智能体平台化”“工具生态工程化”的双重趋势。Strix、sim与airweave等项目聚焦多Agent框架与上下文检索,推动AI应用从模型层向系统集成演进;谷歌开源的adk-go强化了AI代理的工程可控性,显示大型科技公司在开源AI工具链上的加码;awesome-llm-apps与Kimi-K2进一步完善LLM生态,反映AI创新的开放扩散效应。同时,umami凭借隐私分析理念崛起,非AI方
AI大模型5 小时前
程序员·llm·agent
Ollama × 魔搭社区:超简单的大模型本地部署方案本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。随着大模型的不断发展,小参数模型的能力也在逐渐进步,就拿阿里最新开源的qwen3来说,其中有负责多模态的qwen3-vl系列和专为代码优化的qwen3-code系列等,这些不同使用场景中都有开源的小参数模型来方便我们本地部署。
破烂pan6 小时前
llm·模型部署·vllm
主流 LLM 推理/部署框架指标对比主流 LLM 推理/部署框架关键指标上做了对比:吞吐量(Tokens/s)、首 token 响应时间(TTFT,s)、单 token 生成时间(TPOT,ms)、并发能力、推理时 TOKEN 生成效率。注意:这些指标强烈依赖于:模型大小(13B/70B/Chat-style/decoder-only)、硬件(H100/GH200/Blackwell/H20/CPU)、量化与 KV-cache 支持、并发请求分发策略等
人工干智能20 小时前
llm·prompt
科普:LLM领域中的“样本(sample)”、“指令(instruction)”和“提示词(prompt)”在LLM领域,有“样本(sample)”、“指令(instruction)”和“prompt(提示词)”,你清楚它们的区别吗?
mwq3012321 小时前
人工智能·llm
解密“混合专家模型” (MoE) 的全部魔法在当今大语言模型 (LLM) 的竞赛中,您一定听说过 GPT-4、Mixtral 8x7B 这样的“巨无霸”。它们之所以能在保持惊人性能的同时实现高效推理,背后都指向一个共同的架构——MoE (Mixture of Experts) 混合专家模型。
大隐隐于野1 天前
java·缓存·llm
从零开始理解和编写LLM中的KV缓存键值缓存是生产环境中低级逻辑模型(LLM)高效推理的关键技术之一。键值缓存是实现高效计算的LLM推理的重要组成部分。本文将从概念和代码两个层面解释其工作原理,并提供一个从零开始编写的、易于理解的实现示例。
智泊AI1 天前
llm
大语言模型如何微调(Fine-tuning)?从GPT3演进到ChatGPT,从GPT4赋能GitHub Copilot的发展历程中,微调技术发挥了关键作用。
大模型教程1 天前
程序员·llm·agent
2张4090本地微调万亿参数模型!KTransformers上线模型微调功能,使用指南来了本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。你是否曾因算力门槛而对大模型望而却步?想要尝试微调千亿/万亿参数的模型?那更是不敢想象。今天,这个困局正在被打破。
大模型教程1 天前
程序员·llm·agent
快速上手Qwen Code:本地部署与环境配置全攻略本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。Qwen3-Coder 作为强大的编码 Agent,其本地部署和使用非常简单,搭配适配的命令行工具,能快速融入日常开发流程。以下是详细的安装配置步骤,以及常用命令与技巧。
离开地球表面_991 天前
llm·aigc
AIGC时代的必备技能--Prompt工程随着大模型的快速发展,作为一名程序员,切身感受到了日常工作方式正在发生巨大变化。拥抱 AI 已经成为不可逆转的趋势,然而学习RAG、Agent这类技术,不能及时反馈到日常工作中,有一定的滞后性。
亚里随笔1 天前
人工智能·语言模型·自然语言处理·llm·agentic
突破智能体训练瓶颈:DreamGym如何通过经验合成实现可扩展的强化学习?本文将介绍DreamGym,一个革命性的强化学习框架,它通过合成多样化经验来解决智能体训练中的核心挑战。DreamGym首次提出基于推理的经验模型,能够在不依赖昂贵真实环境交互的情况下,生成一致的状态转换和反馈信号,为自主智能体的在线强化学习训练提供了可扩展的解决方案。在WebArena等非RL就绪任务中,DreamGym的性能超越所有基线30%以上;在RL就绪但成本高昂的环境中,它仅使用合成交互就匹配了GRPO和PPO的性能。
AI大模型1 天前
程序员·llm·agent
本地部署vLLM+Qwen3:高性能大模型推理引擎,比Ollama强在哪?本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。在人工智能快速发展的今天,越来越多企业开始部署自己的大语言模型。然而面对动辄数十亿参数的大模型,如何高效稳定地运行它们成为技术团队面临的共同挑战。今天我们就来深入解析两款主流的大模型推理引擎——vLLM和Ollama,帮助您做出正确的技术选型。
在未来等你2 天前
设计模式·llm·react·ai agent·plan-and-execute
AI Agent设计模式 Day 5:Reflexion模式:自我反思与持续改进【AI Agent设计模式 Day 5】Reflexion模式:自我反思与持续改进在“AI Agent设计模式实战”系列的第5天,我们深入探讨 Reflexion 模式——一种通过自我反思实现持续改进的智能体设计范式。该模式源于人类认知中的元认知(metacognition)机制,允许Agent在执行任务后评估自身行为、识别错误并生成改进建议,从而在后续尝试中提升性能。Reflexion 特别适用于需要多轮试错、复杂推理或高准确率保障的场景,如代码生成、数学证明、自动化测试和客户服务对话系统。本文将从原理
智泊AI2 天前
llm
为什么需要垂直领域的SFT微调?垂直领域SFT微调怎么做?随着人工智能的日益火爆,大语言模型(LLM)的应用正变得无处不在。在垂直领域的SFT微调(Supervised Fine-Tuning)作为提升模型专业能力的关键技术,更是引人瞩目。