llm

Irissgwe4 小时前
ai·langchain·llm·ai编程
LangChain快速上手LangChain 生态系统包含不同的包,用来准确选择要安装的功能。• 主 langchain 包 这个包是使用 LangChain 的起点,安装方式如下:
山顶夕景9 小时前
python·大模型·llm·agent·多模态·vlm
【VLM】结合Python沙箱的以图思辨S1-VL模型【多模态推理大模型进展】基于Qwen3-VL-32B-Thinking做的面向数学、物理、化学、天文、地理、生物六大学科的科学多模态推理模型,主要特点是Python 沙箱执行图像裁剪、缩放、标注等代码,多轮迭代推理。S1-VL: Scientific Multimodal Reasoning Model with Thinking-with-Images,https://arxiv.org/pdf/2604.21409,https://huggingface.co/ScienceOne-AI,https:
深念Y10 小时前
缓存·ai·llm·api·硬件·显存·kvcache
大模型API缓存的底层原理:从显存到网关最近和一位朋友聊到API的缓存,他提出了一个很敏锐的问题:“其实tokens缓存都是假的吧?LLM本身就是无状态的。这种缓存只是一种计费规则。实际上跟上下文显存空间有关,你来用,他那边就会给你开一个显存池,就是为了反复压缩切换。不可能你现在来一次,等下不来了,他还把你这份留着来压缩显存,开销太大了。”
冬奇Lab11 小时前
人工智能·开源·llm
一天一个开源项目(第83篇):karpathy/autoresearch —— 开启 AI“自演化”实验室时代“这或许就是未来 AI 自主研发故事的起点。” —— Andrej Karpathy这是“一天一个开源项目”系列的第83篇文章。今天带你了解的项目是 karpathy/autoresearch(autoresearch)。
CoderJia程序员甲11 小时前
ai·大模型·llm·产品运营·github·ai教程
GitHub 热榜项目 - 日榜(2026-04-25)生成于:2026-04-25共发现热门项目: 12 个榜单类型:日榜Token赞助:siliconflow
Irissgwe11 小时前
人工智能·langchain·大模型·llm
LangChain之聊天模型核心能力大语言模型 (LLM) 在各种与语言相关的任务(例如文本生成、翻译、摘要、问答等)中表现出色。 现代 LLM 通常通过聊天模型接口访问,该接口将消息列表作为输入,并返回消息作为输出,而不是使 用纯文本。
uncle_ll1 天前
笔记·学习·langchain·llm·rag
LangChain基础学习笔记你可以把 LangChain 想象成一套 乐高积木。在基础中,我们几乎只使用 Chat Models。
Irissgwe1 天前
人工智能·langchain·llm·langgraph
LangChain 与 LangGraph 介绍(一)在过去十年间,低代码/无代码平台和 AI 代码助手持续冲击着软件开发行业。如今,一种被称为 Vibe Coding 的新兴实践突然走红,甚至颠覆了人们对 "程序员到底在做什么" 的认知。
薛定谔的猫3691 天前
ai·llm·agent·技术分享·mcp
深入浅出 MCP (Model Context Protocol):开启 AI Agent 的标准化连接时代随着大语言模型 (LLM) 的快速发展,如何让 AI 模型更高效、安全地访问外部数据和工具(如数据库、本地文件、API 等)成为了 AI Agent 开发中的核心挑战。Model Context Protocol (MCP) 的出现,为这一问题提供了一种标准化的解决方案。
litble1 天前
人工智能·大模型·llm·moe·kv-cache·pre-ln
如何速成LLM以伪装成一个AI研究者(2)——Pre-LN,KV-Cache优化,MoE如何速成LLM以伪装成一个AI研究者(1)——循环,卷积,编解码器,注意力,Transformer免责声明:作者也是伪装的,有错漏属于正常现象,欢迎评论指正。
hyunbar7771 天前
llm
DeepSeek-V4预览版到底强在哪?推理性能+Agent能力全方位拆解先说一个事,"世界顶级"这四个字,在大模型圈子里已经被用烂了。每家发新版本都是"世界领先"、"全面超越",听多了跟听天气预报似的——明天局部有雨,到底哪局部啊?🤬
山顶夕景1 天前
大模型·llm·agent·检索·记忆体
【Agent】Long-horizon task的memory系统Deep Research 是 2025 年的一个重点,2026年重点是long-horizon task。 Agent 就是一个 Loop,在三个状态之间循环:Search、Read、Reason
Anesthesia丶1 天前
pytorch·python·lora·llm·qwen·vllm
Qwen2.5-1.5b 模型部署与LORA训练笔记这两天心血来潮,想了解一下小模型的部署与训练的过程,刚好家里有张3080魔改20g可以试试水于是说干就干~在这里简单记录以下相关的笔记。
Irissgwe1 天前
人工智能·langchain·llm·langgraph
LangChain 与 LangGraph 介绍(二)随着开发者尝试构建更高级的 AI 代理和多轮对话系统,传统链式结构的局限性逐 渐显现:• 链式流程通常是线性的、预先定义好的步骤,难以处理需要循环、分支或长期状态维护的复杂场 景。
神州数码云基地2 天前
人工智能·llm·ocr·大语言模型·deepseek
告别传统OCR瓶颈,DeepSeek-OCR如何重塑文档智能?在文档数字化与智能处理场景中,OCR技术至关重要。传统OCR在处理长文档与复杂版面时存在精度低、成本高的瓶颈。笔者在调研中发现DeepSeek-OCR推出“上下文光学压缩”范式,能高效编码长文本,被誉为AI的“JPEG时刻”。
薛定谔的猫3692 天前
llm·ai agent·智能化·mcp·model context protocol
深入浅出 MCP:重塑 LLM Agent 的能力边界与生态标准随着大语言模型(LLM)从简单的“对话框”向具备行动能力的“智能体(Agent)”演进,一个迫切的问题浮出水面:如何让模型安全、标准化地访问复杂的外部世界(如数据库、本地文件、API 接口)?Model Context Protocol (MCP) 的出现,为这一难题提供了标准化的答案。
Cosolar2 天前
llm·agent·deepseek
🤷‍♂️ 憋了这么久的DeepSeek-V4:终究还是没拿到开源大模型榜一Arena AI 榜单和最新发布信息,咱们客观分析下——憋了这么久才亮相的DeepSeek-V4,实力确实能打,但最扎心的是:终究还是没拿到第一,多少有点辜负期待。
薛定谔的猫3692 天前
自动化·llm·ai agent·技术架构·mcp·model context protocol
深度解析 MCP (Model Context Protocol):重塑 AI Agent 的生态连接在当前大语言模型 (LLM) 快速发展的时代,AI Agent 的能力边界正从单纯的“文本生成”向“自主行动”演进。然而,如何让不同的 AI 模型安全、标准化地调用各种外部工具(如数据库、本地文件、API 接口)成为了行业的一大挑战。Model Context Protocol (MCP) 的出现,正是为了解决这一核心痛点。
常先森2 天前
架构·llm·agent
Memory OS:AI Agent 不是缺记忆,而是缺一套记忆系统上一篇文章《为什么 AI Agent 的长期记忆几乎都是错的?》讨论的是一个更表层、但也更常见的问题:为什么很多 AI Agent 的长期记忆经常出错。
Cosolar2 天前
人工智能·后端·llm
🚀本地大模型部署指南:16G/32G/64GB内存配置全解析(附最新模型速查表)随着 Qwen3.6、Gemma 4 等新一代开源模型的爆发,本地 LLM 的性能边界不断被刷新。本文基于最新硬件实测,为你整理了一份针对 16GB、32GB、64GB 三种主流内存配置的本地大模型选型速查表。无论你是 MacBook 用户、游戏本玩家还是工作站开发者,都能找到最适合你的“黄金组合”。