llm

量子位3 小时前
llm·aigc
20亿美金苏度科技具身首秀即大招!0真机数据,zero-shot,跑出98%首次抓取成功率具身机器人在 60 分钟内,不间断抓取 100 多个没见过的物体_(透明的、金属的、软质的)_,目前能达到什么水平?
飞翔的SA6 小时前
开发语言·ai·llm·harness
从6.75%到100%!大模型Function Calling终极方案:Harness工程如何驯服目录一、行业痛点:复杂Function Calling的“不可能三角”二、核心武器:Harness = 约束 + 校验 + 自愈
_张一凡8 小时前
llm·aigc·大语言模型·大语言模型微调
【大语言模型学习】2026年最适合新手的小型LLM训练项目全指南:从26M到1B,3块钱就能从头训练在大模型动辄千亿参数、训练成本动辄百万的今天,小型大语言模型 (Small LLMs) 已经成为 AI 学习者和个人开发者的最佳切入点。它们不仅训练成本极低、速度快,还能让你完整掌握从预训练到对齐的全流程,真正理解大模型的内部工作原理。
AIFrontiers9 小时前
llm
LLM核心参数配置指南:原理篇原文: mp.weixin.qq.com/s/C46jhKFNA…欢迎关注公zh: AI-Frontiers
韩师傅10 小时前
pytorch·架构·llm
12GB 小模型路由器(推理篇):INT4、vLLM 与双 QLoRA 切换系列位置:与同专栏「引子篇」「12GB 上 QLoRA / 训练环境篇」衔接;未读前文也可单篇跟做,训练侧需已有一份全精度底座与(可选)两份 LoRA adapter。
404号扳手10 小时前
人工智能·llm
03大模型核心原理Transformer 架构最初在2017年提出,是一种基于注意力机制的模型,用于处理序列到序列的任务,如机器翻译、语言建模等。
EdisonZhou10 小时前
llm·agent·.net core
MAF快速入门(24)整合多个Skill来源大家好,我是Edison。最近我一直在跟着圣杰的《.NET+AI智能体开发进阶》课程学习MAF开发智能体应用,我强烈推荐你也上车跟我一起出发!
程序员三明治11 小时前
人工智能·ai·大模型·llm·量化·java后端·api调用
【AI探索】程序员到底该怎么理解 LLM?你第一反应大概率不是去翻论文,而是直接打开几个现成的产品试试。你可能会去问 DeepSeek、通义千问,或者别的聊天工具,把自己业务里的问题丢进去测一测。结果往往会让人眼前一亮:模型不仅能把话说通顺,还能理解你给它的上下文,甚至能帮你总结、归纳、改写。有些原来必须靠人工做的事情,突然看起来像是真的可以交给机器了。
呆呆敲代码的小Y1 天前
人工智能·ai·llm·agent·优化·skill·mcp
从LLM到Agent Skill:AI核心技术全拆解与系统化学习路线完整拆解从底层大模型到任务定制的全链路关键步骤,并给出分阶段可落地的学习路线,同时适配作为开发者的场景做定制化优化。
nix.gnehc1 天前
llm·推理·vllm·sglang
大模型全流程入门解析——从理论基础到推理落地大模型的落地并非孤立的“部署”或“推理”,而是一套完整的技术链路:从底层理论架构奠基,到训练框架完成模型训练,再到导出标准化模型文件,最终通过推理框架实现高效落地。本文将以入门视角,拆解“理论→训练→模型文件→推理框架”的核心逻辑、关键细节与关联关系,帮大家理清全流程脉络,避开选型与实操误区,尤其适合刚接触大模型的开发者。
在未来等你1 天前
llm·ai agent·skill·技能开发·function calling·tool use
AI Agent Skill Day 13:Knowledge Graph技能:知识图谱查询与推理【AI Agent Skill Day 13】Knowledge Graph技能:知识图谱查询与推理在“AI Agent Skill技能开发实战”系列的第13天,我们聚焦于Knowledge Graph(知识图谱)技能——这是构建具备结构化知识理解与多跳推理能力智能体的核心模块。随着大模型在事实性问答、复杂关系推理等任务中暴露出幻觉和知识边界问题,将外部结构化知识源(如Neo4j、Amazon Neptune、Apache Jena等)与LLM深度集成,已成为提升Agent可靠性与专业性的关键路径。本技能
Freak嵌入式1 天前
ide·驱动开发·ai·llm·嵌入式·micropython·upypi
MicroPython对接大模型:uopenai + 火山方舟实现文字聊天和图片理解openai 是 OpenAI 官方推出的 Python 客户端库,它封装了 OpenAI 系列模型(如 GPT、DALL-E、Whisper 等)的 RESTful API 调用,让开发者无需手动处理 HTTP 请求、鉴权和数据解析,就能快速将 AI 能力集成到 Python 应用中。
AI精钢1 天前
网络·人工智能·ai·大模型·llm·claude·技术评论
Claude Opus 4.7 是一次失败的升级吗?一次基于用户反馈的技术复盘最近,一则关于“Claude Opus 4.7 不如 4.6”的 Reddit 帖子引发了不少讨论。发帖者的核心观点很直接:升级后的模型在若干真实使用场景里,似乎没有带来预期中的质量提升,反而出现了更强的“自信幻觉”、更像默认低 effort 的 adaptive reasoning、代码修改时更容易越界,以及 token 消耗更快等问题,因此他选择暂时留在 4.6。
用户13184867539461 天前
llm
PagedAttention学习笔记定义:PagedAttention 是一种借鉴操作系统虚拟内存 / 分页思想的注意力 KV 缓存管理方案:不再为每个请求预留一整段连续的 KV 显存,而是把 KV 切成固定大小的页(Block),通过块表(Block Table)把「逻辑上的第 i 个块」映射到「物理块 ID」,从而在物理显存上实现非连续存储。
用户13184867539461 天前
llm
Prefix Caching学习笔记在部署大模型推理服务时,Prefix Caching(前缀缓存) 是近年工程上非常实用的一类优化:它把「多条请求里相同的前缀」对应的中间结果缓存起来,避免重复算一遍。
Karl_wei2 天前
llm·ai编程·领域驱动设计
Vide Coding 的基础:LLM 大模型那么如何解决这个问题呢?实际上,AI 大模型正在悄悄发生格局变化。我们完全可以继续使用现在的开发工具,但是换成国内的大模型,这样访问起来,就非常稳定且快速。
CoderJia程序员甲2 天前
ai·大模型·llm·github·ai教程
GitHub 热榜项目 - 日榜(2026-04-17)生成于:2026-04-17共发现热门项目: 14 个榜单类型:日榜Token赞助:siliconflow
Cosolar2 天前
llm·agent·chatglm (智谱)
PageIndex技术全解析:基于推理的无向量RAG框架,重构长文档智能检索范式随着大语言模型(LLM)的快速迭代,检索增强生成(RAG)已成为解决大模型幻觉、实现私有知识库落地的核心技术。然而,主流的向量检索式RAG始终面临切片上下文割裂、语义相似度与内容相关性脱节、结构化文档信息丢失、可解释性差等核心痛点,在金融财报、法律合同、学术论文、技术手册等长结构化文档场景中表现乏力。
阿正的梦工坊3 天前
llm·流水线并行
大模型训练之流水线并行(Pipeline Parallelism)详解随着深度学习的飞速发展,大语言模型(LLM)的参数规模从数亿迅速膨胀到数千亿甚至万亿级别。GPT-3 拥有 1750 亿参数,PaLM 达到 5400 亿,而 Switch Transformer 更是突破了万亿大关。如此庞大的模型,单张 GPU 的显存早已无法容纳,分布式并行训练成为了必然选择。
Cosolar3 天前
数据库·面试·llm
2026年向量数据库选型指南:Qdrant、Pinecone、Milvus、Weaviate 与 Chroma 深度解析随着大语言模型(LLM)从“尝鲜”走向“落地”,检索增强生成(RAG) 已成为企业级 AI 应用的标准架构。作为 RAG 的核心组件,向量数据库(Vector Database) 的选择直接决定了应用的响应速度、搜索精度和运维成本。