llm

WitsMakeMen9 分钟前
人工智能·线性代数·矩阵·llm
用矩阵实例具象化 RankMixer 核心机制结合文档中 100M 参数模型的典型配置(T=16 个特征 Token、D=768 隐藏维度、H=16 个头),通过具体矩阵维度和运算过程,拆解 RankMixer 核心模块的矩阵操作逻辑,让抽象架构落地为可感知的数值流程。
dzj20211 小时前
unity·llm·llmunity
Unity中使用LLMUnity遇到的问题(一)设置[Num GPU Layers]参数的值,官方说-1代表全用GPU,实测后发现设置成-1时,CPU满载,GPU貌似没有忙碌。
智泊AI11 小时前
llm
不靠模仿的第三条路:DeepSeek 凭数学推导,为何撞上 Google 的工程直觉?Google 在 2025 年 6 月推出 Gemma 3n 时,技术圈的反响截然两极。工程团队为其在移动端的极致轻量化折服——2GB 内存即可运行 80 亿参数模型,多模态推理流畅如常;而学术界却对 PLE(Per-Layer Embeddings)与 AltUp 等非传统设计心存疑虑,视其为为适配硬件而强行压缩的工程捷径。
laplace012316 小时前
架构·大模型·llm·agent·rag
claude code架构猜测总结Claude Code 本质 =「LLM 驱动的 Tool-Calling 循环」+「逐层外置的认知结构」 模型是 Agent,本体代码只负责:约束、反馈、隔离、注入知识。
lkbhua莱克瓦2417 小时前
人工智能·llm·prompt·大语言模型·rag·rga
RAG到RGA:生成式AI的范式演进在深入探讨RGA之前,让我们先回顾一下它演进而来的基础框架——RAG(检索增强生成)。想象一位准备重要演讲的学者。传统大语言模型如同依赖固定记忆库的专家,只能基于训练时学到的知识回答问题,无法获取最新信息或特定领域资料。而RAG则像是为这位专家配备了实时研究助手:当问题提出时,助手先检索相关文献,然后将这些资料与问题一同交给专家,生成更准确、更具时效性的回答。
tswddd19 小时前
llm·debug
Debug:mlx-omni-server服务器用qwen3模型出错背景:AI回答出错,开始以为是代码问题使得之前的对话出现在上下文,没想到是mlx-omni-server的问题
致Great20 小时前
llm·agent
TextIn × Agentic RAG:让大模型真正读懂学术论文作为一名研究者,我每天都需要阅读大量的学术论文。最近在做文献综述时,我想到:能不能让 AI 帮我快速理解这些论文的核心内容?
Stirner1 天前
前端·llm·agent
A2UI : 以动态 UI 代替 LLM 文本输出的方案A2UI (Agent to UI) 是一个基于 JSON 的流式 UI 协议,旨在让 AI Agent 能够动态生成、控制并响应用户界面。从技术本质上看,它将 UI 视为纯粹的数据 payload,由前端运行时(Runtime)负责解析并映射为原生组件。
kagg8861 天前
llm·mcp
mcp-gateway —— 隐藏mcp上下文以避免不必要的tokens开销今天上午刷到了 linux.do/t/topic/140… ,奈何该工具需要docker,而我又没有docker,遂造轮之。
夏日白云1 天前
pdf·llm·大语言模型·rag·文档解析
《PDF解析工程实录》第 17 章|内容流里“看得见却看不见”的字符:那些幽灵文字从哪来?点此进入系列专栏如果你已经开始深入使用 PDF 内容流解析,迟早会遇到一种非常诡异、但又极其常见的现象:
人工干智能1 天前
python·llm
OpenAI Assistants API 中 client.beta.threads.messages.create方法,兼谈一星*和两星**解包前文学习了“OpenAI Assistants API 架构”,其中 client.beta.threads.messages.create 是向指定对话线程(Thread)添加消息的唯一方式,也是构建对话上下文、实现用户与助手交互的基础。
小Pawn爷2 天前
llm·p-tuning
10.不改模型只改提示P-Tuning微调新思路LSTM(Long Short-Term Memory长短期记忆网络 RNN循环神经网络的变体 )/MLP(多层感知机)
aopstudio2 天前
自然语言处理·llm·jinja
Jinja 是什么?为什么大模型的聊天模板使用它?在HuggingFace的模型页面,点击Chat template选项: 会看到下图这样的内容:我第一次看到这样的写法时,完全不知道这是什么语言——既不像 Python,也不像 HTML。
缘友一世2 天前
llm·rl·gspo·rlvr
基于GSPO算法实现Qwen3-VL 8B在MathVista数据集上的强化学习实践入门
AGI杂货铺2 天前
ai·langchain·llm·agent·deepagent
零基础也能快速搭建的Deep AgentsDeepAgents 是 LangChain 推出的一个独立库,专门用于构建能够处理复杂、多步骤任务的 AI Agent。它基于 LangGraph 构建,灵感来源于 Claude Code、Deep Research 和 Manus 等应用。
彼岸花开了吗2 天前
人工智能·llm
构建AI智能体:八十二、潜藏秩序的发现:隐因子视角下的SVD推荐知识提取与机理阐释在推荐系统领域,我们常常面临两个核心挑战:一是如何从用户-物品交互的稀疏矩阵中提取出深层次的、有意义的知识;二是如何向业务方或用户解释为什么推荐这个?协同过滤基于物以类聚、人以群分的朴素思想,通过分析用户的历史行为,如评分、点击,能准确地找到相似用户或物品,从而产生非常精准的推荐。虽然效果显著,但其黑盒特性一直为人所诟病,它无法提供令人信服的推荐理由,系统可以推荐一部电影,但无法解释为什么是这部?是因为喜欢它的导演、演员、还是题材,协同过滤模型自身无法回答,这种决策过程的不可知性,导致了用户信任度低、模型
Study9962 天前
人工智能·ai·语言模型·自然语言处理·大模型·llm·agent
大语言模型的详解与训练随着2022年底 ChatGPT 再一次刷新 NLP 的能力上限,大语言模型(Large Language Model,LLM)开始接替传统的预训练语言模型(Pre-trained Language Model,PLM) 成为 NLP 的主流方向,基于 LLM 的全新研究范式也正在刷新被 BERT 发扬光大的预训练-微调范式,NLP 由此迎来又一次翻天覆地的变化。从2022年底至今,LLM 能力上限不断刷新,通用基座大模型数量指数级上升,基于 LLM 的概念、应用也是日新月异,预示着大模型时代的到来。
淡淡的说非2 天前
ai·llm·springboot·langchain4j
LangChain4j 深度解析与Java工程化落地实践面向中高级 Java 开发者 / 技术架构师,从核心架构、Java 生态深度适配、工程化落地到生产级避坑策略,系统化掌握 LangChain4j 在企业级 AI 应用体系中的构建方法论与最佳实践。
夏日白云2 天前
pdf·llm·大语言模型·rag·文档解析
《PDF解析工程实录》第 14 章|内容流文本布局计算:pdfminer 在做什么,以及它为什么不够点此进入系列专栏如果你在 PDF 解析里,哪怕只走过一次内容流路线,大概率都会在某个时刻和 pdfminer 正面相遇。不是因为它多完美,而是因为它几乎定义了一个事实:
lkbhua莱克瓦242 天前
人工智能·llm·大语言模型
参数如何影响着大语言模型想象一下我们之前提到的那位图书馆“馆员”。他的大脑不是一个简单的记事本,而是一个由数千亿甚至数万亿个微小旋钮构成的、极其复杂的调控网络。