llm

手机不死我是天子4 小时前
llm
拆解大模型三:你不会真以为 Attention 是大模型的主角吧学完 Attention,很多人会有个错觉:Transformer = Attention,其他都是配件。
手机不死我是天子1 天前
人工智能·llm
拆解大模型二:Transformer 最核心的设计,其实你高中就学过Attention 机制,很多人觉得它神秘、复杂、充满线性代数。但如果我告诉你,它的核心运算——两个向量做点积,算相似度——是你高中数学就见过的东西,你信吗?
数据智能老司机2 天前
llm·agent
构建自然语言与大语言模型(LLM)流水线——将组件整合起来:面向不同使用场景的 Haystack Pipeline在上一章中,我们介绍了 deepset 的 Haystack——一个用于管理 LLM 相关项目端到端生命周期的健壮框架。这其中涵盖了 OpenAI 的 GPT、Hugging Face 的 Transformers,以及托管在 Amazon Bedrock、Google Vertex AI 等云服务平台上的模型。我们深入探讨了 Haystack 如何支持基于 LLM 的数据 Pipeline 的创建与管理,而这些 Pipeline 对于数据预处理、存储、与 LLM 组件交互等任务都至关重要,并最终通过应用
数据智能老司机2 天前
llm·agent
构建自然语言与大语言模型(LLM)流水线——使用自定义组件进行 Haystack Pipeline 开发在前几章中,我们的重点一直是:把预定义组件组装进 Pipeline,以实现特定目标——从数据摄取,到结合 Agent 的高级 RAG。本章标志着能力层级上的一次关键跃迁:从 Haystack 框架的使用者,转变为能够扩展它的架构师。本章的目标,是学习如何构建自定义组件,并将其集成到复杂 Pipeline 中,从而释放 Haystack 的全部潜力,以解决那些独特的、领域特定的问题。
gustt2 天前
llm·agent·mcp
探索MCP协议:构建高效的LLM工具集成系统在大型语言模型(LLM)的时代,我们常常看到LLM被用来处理文本生成、问答等任务,但当我们为其配备工具时,它们的潜力才真正被释放。想象一下,LLM不仅仅是聊天机器人,还能执行实际操作,比如读取文件、写入数据、列出目录或执行命令。这些工具包括read、write、listDir和exec等基本功能,将LLM与这些工具结合,就形成了Agent——一个能“干活”的智能系统。
神秘的猪头2 天前
数据库·后端·llm
🚀 React 开发者进阶:RAG 核心——手把手带你玩转 Milvus 向量数据库嗨,前端的小伙伴们!作为 React 开发者,你一定对 State、Props、Component 如数家珍。但在这个 AI 席卷一切的时代,你是否想过:如何给你的应用装上一个“无限容量的大脑”? 🧠
哈里谢顿3 天前
langchain·llm
LangGraph 框架完全指南:构建生产级 AI 工作流LangGraph 将应用建模为状态机,每个节点是状态转换函数:定义应用的数据结构,使用 TypedDict + Annotated:
UIUV3 天前
后端·langchain·llm
Splitter学习笔记(含RAG相关流程与代码实践)本次学习围绕LangChain中的Splitter(文本分割器)展开,结合文档中提供的知识点、代码案例以及RAG相关流程,系统梳理Splitter的核心概念、分类、工作原理、参数配置及实际应用场景,同时补充相关延伸知识,帮助全面理解文本分割在大语言模型应用中的重要性。笔记将从基础认知、核心知识点、代码实践、常见问题及延伸拓展五个部分展开,确保内容详实、逻辑清晰,贴合学习需求,总字数达到4000字以上。
mCell3 天前
人工智能·llm·数据可视化
分享一个常用的文生图提示词同步至个人站点:stack.mcell.top/blog/2026/s…比如在这个分享中,几乎所有的图片我都是用这个提示词生成的。
gustt3 天前
人工智能·llm·agent
使用 LangChain 构建 AI 代理:自动化创建 React TodoList 应用在前端开发领域,随着 AI 技术的快速发展,我经常探索如何将 AI 集成到日常开发流程中。今天,我想分享一个实际案例:使用 LangChain 框架构建一个 AI 代理,通过自定义工具来自动化创建和管理一个 React TodoList 应用。这个代理可以处理文件读写、命令执行和目录操作等任务,让开发过程更高效、智能。
Baihai_IDP3 天前
人工智能·程序员·llm
在 Anthropic 的这两年,我学会了 13 件事The Dance Class by Edgar Degas, 1874作者 | Karina Nguyen
IvanCodes3 天前
人工智能·llm
Anthropic突然开火:中国大模型被指大规模蒸馏攻击近日,美国顶尖AI独角兽 Anthropic 突然在社交媒体 X 上发难,公开指控三家中国头部AI企业——DeepSeek、Moonshot AI 和 MiniMax,称其对 Claude 模型发起了 工业规模的蒸馏攻击。这样指名道姓的公开指控极为罕见,瞬间引爆了全球科技圈的舆论。
树獭非懒4 天前
后端·python·llm
AI大模型小白手册|Embedding 与向量数据库在人工智能快速发展的今天,大模型虽能理解并生成人类语言,却高度依赖外部工具来高效处理和检索海量信息。其中,Embedding(嵌入) 技术将文本、图像等复杂数据转化为计算机可计算的向量,而向量数据库则专门用于存储和快速检索这些高维向量,从而实现语义级别的相似性匹配。这两项技术共同构成了现代AI应用如智能问答、推荐系统和知识库检索的基石。
爱可生开源社区4 天前
sql·llm
MiniMax M2.5 的 SQL 能力令人惊艳!2026 年 2 月 12 日,MiniMax M2.5 发布。SCALE 即刻对该模型进行了评测,也是 SCALE 榜单首次引入 MiniMax 系列模型,旨在系统评估其在企业级数据库场景下的 SQL 综合能力,为用户和企业技术选型提供参考依据。
鞋带松了4 天前
langchain·llm
LangChain入门初体验-实现简单智能体第一天我们将快速搭建开发环境,并深入理解LangChain的核心概念,最终实现一个能回答“现在几点了”的智能体(Agent)。通过这个简单的实践,你将掌握LangChain的基本工作流。
孤烟4 天前
人工智能·llm
【RAG 实战系列 02】检索精度翻倍!混合检索(稀疏 + 稠密)实战教程大家好,我是大漠孤烟~上一篇带着大家用30分钟搭好了基础版PDF问答系统,不少朋友实操后反馈:简单的问题能答,但遇到专业术语多、长文本检索,或者问题表述和文档里的说法不一样时,系统经常“找错资料”,要么答非所问,要么漏关键信息。
xun_xing4 天前
llm·openai·ai编程
一篇文章让你彻底熟悉AI大模型(一)以下是个人学习的总结(一),干货满满,还望仔细阅读,如有问题,欢迎留言。很多人可能在了解AI过程中,发现知识链路较为混乱,各种名词迭出,难以理清脉络,建立知识结构体系。
黄粱梦醒5 天前
人工智能·llm
大模型企业级部署方案-vllm目前主流的大模型部署框架以llama.cpp、Ollama和Vllm为主。从各种基准测试数据来看,同等配置下,使用 vLLM 框架与 Transformer 等传统推理库相比,其吞吐量可以提高一个数量级,这归功于以下几个特性:
数据智能老司机5 天前
llm·agent
使用 MCP 与 A2A 设计多智能体 AI 系统——部署多智能体系统在上一章中,我们讨论了多智能体系统的测试、调试与故障排查。我们探索了诸如幻觉(hallucination)与工具误用(tool misuse)等常见失效模式、监控与可观测性(instrumentation and observability)策略、协调失败(coordination failures)的调试技巧,以及通过冗余与优雅降级来构建韧性(resilience)的设计方法。我们全程以 MAKDO 作为具体示例来说明这些概念。
DigitalOcean5 天前
llm·aigc
GPU对比:MI350X、MI325X、MI300X、H200、H100过去几年间,以大型语言模型(LLM)和生成式 AI 为代表的新浪潮席卷全球,对算力基础设施提出了前所未有的严苛挑战。从 GPT-4 到 Llama 3.1,参数量级的飞跃不仅意味着计算复杂度的几何级数增长,更直接推动了对高性能 GPU 的需求井喷。然而,对于大多数创新型企业而言,自建集群面临的高昂成本与运维压力,使得像 DigitalOcean 这类按需付费、灵活扩展的 GPU 云服务成为了解决算力瓶颈的关键。