llm

Mr.朱鹏5 小时前
python·langchain·django·大模型·llm·virtualenv
5.LangChain零基础速通-LCEL链式调用定义:LangChain中的抽象基类(Abstract Base Class:ABC),Runnable是LangChain核心抽象接口统一组件调用方式,定义在langchain_core.runnables,支持LCEL组合,适配同步、异步、流式、批量等场景,是构建工作流的基础。
名字不好奇6 小时前
llm
大模型不神秘:它到底在做什么你每天都在用 AI。问它问题,让它写代码,让它帮你翻译文章。但你有没有想过:它到底在"做"什么?大多数人以为 AI 在"思考"——它理解了你的问题,查了查脑子里的知识,最后给出一个"它认为对的答案"。
星浩AI8 小时前
llm·claude·vibecoding
Claude Code 白嫖接入 DeepSeek V4 教程利用阿里云百炼 / 魔塔社区的免费额度,通过 CC Switch 桌面工具快速对接 Claude Code 与 DeepSeek V4 系列模型。
为儿打call9 小时前
大数据·llm
基于 Git Hooks + LLM 实现根据自然语言规则进行 Code Review团队内部有不少开发规范,但在日常赶需求的过程中很容易遗漏。比如 spark-submit 脚本的参数格式、文件命名约定等,这些"小问题"不影响运行,但是人工校验的心智负担较大
Mr.朱鹏10 小时前
人工智能·python·深度学习·langchain·llm·prompt·virtualenv
3.LangChain零基础速通-Prompt提示词模版和模型调用方法Prompt是引导AI模型生成特定输出的输入格式,Prompt的设计和措辞会显著影响模型的响应。Prompt最开始只是简单的字符串,随着时间的推移,Prompt逐渐开始包含特定的占位符,例如AI模型可通过将多个消息字符串分类为不同的角模型可以识别的"USER:"、"SYSTEM:"等。模型可通过多个消息字符串分类为不同的角色,然后再由AI模型处理,为prompt引入了更多结构。每条消息都分配有特定的角色,这些角色对消息进行分类,明确AI模型提示的每个部分的上下文和目的。这种结构化方法增强了与AI沟通的细微
冬奇Lab21 小时前
人工智能·llm·源码
RAG 系列(九):效果不好怎么定位——用 RAGAS 做根因诊断你部署了一个 RAG 系统,用户反馈说"答案有时候不准"。然后呢?你改了 Prompt,感觉好一点。再换了个 Embedding 模型,又好了一点。几轮下来,你也不知道是哪一步起了效果,下次出问题依然无从下手。
不会敲代码11 天前
langchain·node.js·llm
从零搭建 RAG 电子书智能问答系统:天龙八部 × Milvus × LangChain最近重读金庸的《天龙八部》,脑子里冒出一堆问题:"段誉到底会哪些武功?" "乔峰在少室山大战中用了什么招式?" "虚竹是怎么当上灵鹫宫宫主的?"
爱听歌的周童鞋1 天前
笔记·llm·agent·claude code·collaboration·autonomous
Learn-Claude-Code | 笔记 | Collaboration | s11 Autonomous Agents在上篇文章 Learn-Claude-Code | 笔记 | Collaboration | s10 Team Protocols 中,我们介绍了开源项目 learn-claude-code 第十个章节 s10 Team Protocols 的内容,这篇文章我们继续跟着教程文档来学习协作后续内容,记录下个人学习笔记,和大家一起分享交流😄
爱听歌的周童鞋1 天前
llm·agent·worktree·claude code·collaboration·task isolation
Learn-Claude-Code | 笔记 | Collaboration | s12 Worktree + Task Isolation在上篇文章 Learn-Claude-Code | 笔记 | Collaboration | s11 Autonomous Agents 中,我们介绍了开源项目 learn-claude-code 第十一个章节 s11 Autonomous Agents 的内容,这篇文章我们继续跟着教程文档来学习协作最后一个部分的内容,记录下个人学习笔记,和大家一起分享交流😄
Irissgwe1 天前
人工智能·ai·langchain·llm·rag·langgraph·文档加载器
LangChain之核心组件(文档加载器Document loaders)我们将重点放在 RAG 阶段(Retrieval-Augmented Generation,检索增强生成)。 这是当前大语言模型应用的核心模式。RAG 的流程相对复杂,为了更好的理解 RAG,我们先用 AI 搜索来引出 RAG。 • 对于【AI 大模型】来说,它最擅长的是语义理解和文本总结,最不擅长的就是获取实时的信息。因为大模型的训练数据是有截止日期的! • 对于【搜索引擎】来说,它最擅长的就是获取实时的信息,缺点是信息分散,每次都需要人为进行 总结。 • 大模型与搜索引擎的结合,就是给 AI 配备了一
程序员三明治1 天前
java·人工智能·后端·大模型·llm·prompt·agent
【AI】Prompt 工程入门:从五要素框架到 RAG 生产级 Prompt 模板与 Java 实战在调用方式上,非流式调用会一次性返回完整结果;流式调用则可以实现类似“打字机效果”的逐字输出。但真正把大模型接入业务系统之后,你很快会发现:会调用 API 只是第一步,如何让模型稳定、准确、可控地回答问题,才是工程落地的关键。
GoCoding1 天前
llm
Rex-Omni 开始Rex-Omni 是一个 3B 参数多模态模型,它将视觉感知任务统一到一个“下一点预测”框架中。其支持的任务有:物体检测、OCR、指向、关键点定位、视觉提示。
树獭非懒1 天前
人工智能·程序员·llm
Harness Engineering:驾驭大模型的工程新范式继 Prompt Engineering、Context Engineering 之后,AI 圈又冒出了一个新名词——Harness Engineering。从 2025 年 2 月开始,这个词频繁出现在各大技术社区。OpenAI 专门发文讲述他们如何用 Harness Engineering 在五个月内生成了近 100 万行代码;Anthropic 紧接着也分享了精心设计的 Harness 架构如何驱动 Agent 应用开发;就连 Martin Fowler 的技术网站也开始公开讨论这一概念。
冬奇Lab2 天前
人工智能·llm
RAG 系列(八):RAG 评估体系——用数据说话前面七篇文章,我们搭起了一整套 RAG 流程:分块、Embedding、向量库、检索策略。系统跑起来了,你问它几个问题,回答看起来"还不错"。
Irissgwe2 天前
ai·langchain·llm·ai编程·输出解析器
LangChain之核心组件(输出解析器)快速简单的解释一下输出解析器到底解决什么问题: 你调模型拿到的 result 是一个 AIMessage 对象,不是纯字符串:
阿里云大数据AI技术2 天前
人工智能·llm
Qwen3.6、Kimi-K2.6、Minimax-M2.7、GLM-5.1 来啦!PAI支持海量模型一键部署!近日,开源大模型领域迎来新一轮技术爆发,Kimi-K2.6、Minimax-M2.7、GLM-5.1 与 Qwen3.6-35B-A3B 等前沿模型相继发布。PAI-Model Gallery 已支持云上一键部署上述全部模型,并可使用 真武PPU 高效支持大模型推理需求!
Irissgwe2 天前
人工智能·langchain·llm·langgraph
LangChain之核心组件(少样本提示词)在写代码之前,先把涉及的"零件"搞清楚。作用: 把一个带 {占位符} 的字符串模板,填上实际值后生成最终文本。它是 LangChain 中最基础的文本构建块,所有更复杂的模板都基于它扩展。
litble2 天前
人工智能·llm·ppo·grpo·gspo·dapo
如何速成LLM以伪装成一个AI研究者(4)——PPO,GRPO,DAPO,GSPO如何速成LLM以伪装成一个AI研究者(1)——循环,卷积,编解码器,注意力,Transformer 如何速成LLM以伪装成一个AI研究者(2)——Pre-LN,KV-Cache优化,MoE 如何速成LLM以伪装成一个AI研究者(3)——预训练,监督微调,强化学习RLHF/DPO
强殖装甲凯普2 天前
llm·skill·播客·claude code
我把「3小时播客变成可搜索文本」做成了 Claude Code 的一条命令你有没有过这种时刻——关注了一年的技术播客终于更新了,点开一看 2 小时 47 分钟。你很想听,但实在抽不出整块时间。想搜里面的某个观点?对不起,没有字幕。想让 AI 帮你总结?对不起,没有文本。