大语言模型

deephub13 小时前
人工智能·python·大语言模型·embedding·向量检索
向量数据库对比:Pinecone、Chroma、Weaviate 的架构与适用场景向量数据库存储 Embedding,也就是文本、图像或音频的数值表示,并在查询时检索语义上最接近的结果。RAG 系统正是基于这一机制运作。本文对比三个主流方案,每个都附有 Python 代码,均来自实际在生产环境中使用三者的经验。 三种选择:Pinecone 用于生产级规模,Chroma 用于本地原型开发,Weaviate 用于混合搜索。
deephub3 天前
人工智能·python·大语言模型·agent
ADK 多智能体编排:SequentialAgent、ParallelAgent 与 LoopAgent 解析单个智能体的专业化程度有上限,真正的工作需要团队:一个角色接收订单,一个检查库存,一个安排生产,一个验证质量。ADK 的编排模式:SequentialAgent、ParallelAgent、LoopAgent可以将多个智能体组合成工作流,流程只定义一次,状态在智能体之间自动传递,故障由系统托管。本文讲介绍每种模式的适用场景、状态的流转机制,以及如何在不编写编排逻辑的前提下搭建一条完整的从订单到交付的流水线。
天空之城_tsf4 天前
大语言模型·mcp服务
配置MCP服务CherryStudio和Chatbox都是两款热门的AI对话工具,支持多个大语言模型对话、配置API Key使用,同时支持MCP服务。MCP服务就是模型上下文协议,你可以简单理解成是一个服务,同时也是一个协议,大模型或者agent根据这个服务/协议的标准,去调用相关的工具,例如打开浏览器、地图、创建文件等等,你可以理解为MCP管理了一大堆资源和软件,我们可以通过MCP去更好的、更加精细化的去操控这些资源和软件,从而满足特定的需求。
prog_61034 天前
人工智能·笔记·大语言模型·agent
【笔记】用cursor手搓cursor(五)再见claude最近lmarena也全面下线了opus 4.x high的模型使用。感谢claude对三方的封禁,让我开始正视没有它强的模型。虽然还是可以用,但是opus已经不是以前一个loop可以跑50M token而且才用quota的约0.2%的opus了,我估计一次20M token的使用就能用完quota。
deephub5 天前
人工智能·python·深度学习·大语言模型·vllm
从零构建 Mini-vLLM:KV-Cache、动态批处理与分布式推理全流程HuggingFace 的是个黑盒,而且这个黑盒藏了一个代价很高的问题,每一个解码步骤它都从头开始对整个 prompt 做一次完整的注意力计算。每一个 token 都是如此。注意力的开销以 O(N²) 的速度随序列长度增长,在小规模下完全察觉不到,一旦上了真实负载就会出现问题。
deephub6 天前
人工智能·大语言模型·embedding·rag
多 Aspect Embedding:将上下文信号编入向量相似性计算的检索架构向量数据库的核心任务是对文本或其他非结构化数据生成的 Embedding 做相似性搜索。时间戳、文档类型、所有权一类的上下文约束,一般以外部过滤器的形式在向量搜索前后进行。多数场景下这一架构运作正常,但当上下文信号需要参与排序就会有问题。本文分析传统向量数据库架构的过滤与检索机制,并介绍 Aspected 的 Aspect Database:一个面向 AI 系统的上下文感知检索引擎,将上下文属性经由多 Aspect Embedding 直接编码进相似性计算所用的表示中。
prog_61037 天前
人工智能·笔记·大语言模型·agent
【笔记】用cursor手搓cursor(四)最近claude实行了新的定价,导致cursor也跟着改价格表。 claude的使用额度开始减少,于是尝试了一下让gemini-3-pro这样的便宜模型。 发现cursor是强绑定claude,一方面是claude的编程知识是真的丰富,它在解决问题的时候如果文档不齐全它会尽可能去猜测完成任务,而gemini-3-pro更像一个等待指令的worker,cursor和gemini的集成简直差到极点了。 原本如果cursor认真去做各种模型集成,然后让不同模型能取长补短。但现在是cursor专注于和claude
tkokof17 天前
游戏·ai·大语言模型·汉化·卡牌之声
漫漫游戏汉化路本文简述了自己在汉化游戏 《卡牌之声:残次的巫女(Voice of Cards: The Forsaken Maiden)》过程中的经历和感想
deephub8 天前
人工智能·python·prompt·大语言模型
不依赖对话日志检测Prompt注入,一套隐私优先的实现方案检测 Prompt 注入和越狱攻击的方法,大多建立在系统可以访问对话日志这个前提上。但是如果设计一个系统,每段对话只处理一次以提取特征,不保留原始文本可以吗?:
诸神缄默不语9 天前
论文阅读·笔记·大模型·llm·大语言模型·claude·大规模预训练语言模型
论文阅读笔记:Claude如何思考诸神缄默不语-个人技术博文与视频目录 诸神缄默不语的论文阅读笔记和分类本笔记涉及对如下2篇Anthropic公司对其旗下大模型Claude可解释性探索的论文:
deephub10 天前
人工智能·深度学习·大语言模型·agent
多 Agent 验证架构实战:从输出评分到过程验证多 Agent 流水线在每一次演示中都表现正常。但是到了生产环境,它可能在第四步之前就悄悄积累了三个错误决策,最终输出自信、流畅但是完全错误。并且最后没有人发现问题,因为根本没有信号可以捕捉链条末端只剩下一个看起来干干净净的结果。
QC·Rex13 天前
人工智能·langchain·大语言模型·rag·企业应用·ai 助手
国产大模型应用实践:从 0 到 1 搭建企业级 AI 助手本文详细介绍如何使用国产大模型(通义千问、文心一言、Kimi 等)从零开始搭建一个企业级 AI 助手。内容涵盖技术选型、架构设计、核心功能实现、RAG 检索增强、多轮对话管理、部署运维等完整流程。通过本文,读者可以独立完成一个支持文档问答、任务执行、数据分析的智能助手系统。全文约 5800 字,包含 8 个可运行代码示例和 6 张技术图解。
deephub13 天前
人工智能·深度学习·大语言模型·agent
信息访问 vs. 推理能力:LLM Agent 性能归因的实验分析LLM agent 看起来越来越智能了。但实际上它们可能只是拿到了更多信息。Agentic 工作流普及以后,LLM 开始被频繁用于迭代优化机器学习模型:提出配置方案、观察实验结果、逐步改进决策。表面上看这像是推理,但一个根本问题悬而未决:系统性能的提升,究竟源于推理能力,还是源于输入端信息的改善?
晨曦蜗牛14 天前
ai·飞书·大语言模型·openclaw
OpenClaw 接入飞书详细教程OpenClaw 是一个开源、本地优先的 AI 代理网关,能让大模型在你的电脑/服务器上 7×24 小时运行,支持直接操作电脑、浏览网页、执行命令,还能无缝接入飞书、Telegram、Discord 等聊天平台。本文详细介绍接入飞书的完整配置流程。
咸鱼豆腐14 天前
单元测试·大语言模型·ai编程·代码生成
Clawdbot惊艳案例:Qwen3-32B自动生成带单元测试的Python模块并执行验证你有没有过这样的时刻:刚写完一个功能函数,马上得打开另一个文件写单元测试;改了几行逻辑,又得回头检查测试用例是否覆盖全面;团队新人接手代码时,光看测试文件就要花半小时理解边界条件……这些重复、机械、却不得不做的工作,正在被一种新的方式悄然改变。
深瞳智检17 天前
人工智能·自然语言处理·llm·大语言模型
lesson-02 NLP 基础-文本表示与词向量目录学习笔记一、第 1 篇:分词(Tokenization)核心要点二、第 2 篇:词向量(Word Vector)
机器白学18 天前
人工智能·大语言模型
OpenClaw使用前置准备:Ollama+OpenwebUI本地部署/API调用大模型docker拉取显卡驱动、ollama(模型部署)、openwebui(前端对话)镜像modelscope下载官方gguf格式模型,根据硬件显卡显存大小选择其中一种量化模式的模型即可。
deephub20 天前
人工智能·大语言模型·claude·claude code
Claude Code 命令体系解析:三种类型、七大分类、50+ 命令Claude Code 内置了超过 50 个命令,但是大多数开发者只用了其中 3 到 5 个,剩下的基本没人翻过。
弗锐土豆20 天前
llm·大语言模型·安装·ollama
使用ollama运行本地大模型在研发一个AI与传统业务系统结合的产品,需要本地化LLM(大语言模型)环境。所以选择ollama来管理本地LLM,本次学会安装使用ollama。
_张一凡21 天前
llm·aigc·大语言模型·多模态·qwen3·大语言模型微调·全参量微调
【大语言模型学习】一文详解阿里Qwen3大模型以及全参量微调入门实战教程(代码完整)2025年4月,阿里巴巴正式发布新一代通义千问大模型Qwen3系列,这是继Qwen2.5之后又一次重大技术跃迁。作为目前全球最活跃的开源大模型家族之一,Qwen3不仅在多项权威基准测试中登顶榜首,更通过混合专家架构(MoE)与混合推理模式的创新,重新定义了大模型的效率边界。本文将带您全面了解Qwen3的技术全景、核心突破以及上手微调一个自己的对话模型。