大语言模型

北京地铁1号线1 天前
人工智能·深度学习·计算机视觉·大语言模型
人工智能岗位招聘专业笔试试卷及答案(1)如何保证数据标注的质量,有哪些措施?(2)哪些因素影响深度学习模型训练的显存占用?训练的时候显存占用低可能是什么原因?
deephub3 天前
人工智能·大语言模型·agent
Agentic Memory 实践:用 agents.md 实现 LLM 持续学习LLM 能自动化研究、编程等各类任务,但有个恼人的问题:完成一个任务后,下次交互又得从零开始。每次都要重复告诉它代码格式怎么写、任务按什么偏好执行,时间就这么浪费掉了。
aopstudio4 天前
自然语言处理·大语言模型·huggingface
如何优雅地下载 Hugging Face 模型Hugging Face 已经成为事实上的开源模型分发中心,无论是 NLP、CV 还是多模态模型,几乎都可以通过一个 model id 直接获取完整权重与配置文件。
deephub4 天前
人工智能·大语言模型·采样
CALM模型的黑盒采样:用碰撞方法实现温度调节温度参数大概是LLM推理中最容易理解的控制手段了。把温度调低,输出就更确定、更收敛;调高,模型就更发散、更有"创意"。问题是这套机制依赖于显式的logits——而连续自回归语言模型(CALM)恰恰没有这东西。
lkbhua莱克瓦245 天前
人工智能·llm·prompt·大语言模型·rag·rga
RAG到RGA:生成式AI的范式演进在深入探讨RGA之前,让我们先回顾一下它演进而来的基础框架——RAG(检索增强生成)。想象一位准备重要演讲的学者。传统大语言模型如同依赖固定记忆库的专家,只能基于训练时学到的知识回答问题,无法获取最新信息或特定领域资料。而RAG则像是为这位专家配备了实时研究助手:当问题提出时,助手先检索相关文献,然后将这些资料与问题一同交给专家,生成更准确、更具时效性的回答。
a3158238065 天前
算法·大语言模型·应用开发
大语言模型应用开发技术要求岗位职责: 1、基于 LangChain/LangGraph 框架,主导多智能体系统的架构设计、核心模块开发与工作流编排,实现智能体间的协同协作、任务拆分与自主决策(如分工型智能体、工具链协同智能体); 2、负责 Agentic RAG(智能体增强检索生成)全流程优化,包括检索策略设计、上下文感知召回、多轮交互式检索、知识库更新机制,提升复杂问题的答案准确性与时效性; 3、主导文档处理全流程开发,设计适配不同类型文档(结构化 / 非结构化、长文本 / 短文本)的分块策略、向量化方案(如 Embedding
夏日白云5 天前
pdf·llm·大语言模型·rag·文档解析
《PDF解析工程实录》第 17 章|内容流里“看得见却看不见”的字符:那些幽灵文字从哪来?点此进入系列专栏如果你已经开始深入使用 PDF 内容流解析,迟早会遇到一种非常诡异、但又极其常见的现象:
夏日白云6 天前
pdf·llm·大语言模型·rag·文档解析
《PDF解析工程实录》第 14 章|内容流文本布局计算:pdfminer 在做什么,以及它为什么不够点此进入系列专栏如果你在 PDF 解析里,哪怕只走过一次内容流路线,大概率都会在某个时刻和 pdfminer 正面相遇。不是因为它多完美,而是因为它几乎定义了一个事实:
lkbhua莱克瓦246 天前
人工智能·llm·大语言模型
参数如何影响着大语言模型想象一下我们之前提到的那位图书馆“馆员”。他的大脑不是一个简单的记事本,而是一个由数千亿甚至数万亿个微小旋钮构成的、极其复杂的调控网络。
deephub7 天前
人工智能·架构·prompt·大语言模型·agent
深度研究Agent架构解析:4种Agent架构介绍及实用Prompt模板深度搜索Agent核心问题其实就有两个:怎么把复杂问题拆得合理,以及怎么判断搜索结果够不够用。近两年深度搜索Agent发展很快各家的实现思路也越来越成熟,围绕这两个问题业界逐渐沉淀出几种主流架构:从最基础的Planner-Only,到加入评估反馈的双模块设计,再到Sentient Labs提出的递归式方案。这篇文章将整理这些架构并顺便附上一些实用的prompt模板。
叶庭云8 天前
大语言模型·flashattention·量化技术·w8a8 量化·w4a8 量化·稀疏量化·kv cache 量化
一文了解 W8A8、W4A8、稀疏量化、FlashAttention-3、KV Cache 量化W8A8(Weight 8-bit / Activation 8-bit)量化的本质是:用 8-bit 整数近似表示 FP16/FP32 的模型权重与中间激活值,并在整数域完成 GEMM(GEneral Matrix Multiplication),最终在输出端做尺度还原。 量化计算只是改变了数值 “表示形式”,没有改变模型定义的数值空间;尺度还原的作用,是在精度边界处将整数近似重新嵌回模型原始的浮点语义空间。
_OP_CHEN9 天前
人工智能·大模型·大语言模型·模型优化·扣子平台·智能体开发·智能体调试
【Coze智能体开发】(二)从 0 到 1 精通 Coze 智能体开发:基础到实战全攻略,新手也能快速上手!编辑引言一、智能体核心认知:它不是简单的 "聊天机器人"1.1 什么是智能体?—— 有自主能力的 AI"办事员"
bl4ckpe4ch11 天前
llm·大语言模型·提示词工程·llm提示词
LLM提示词,究极提高效率【WIP】‘我想学习[插入话题]。确定并分享该话题最关键的20%内容,用于理解剩余80%。’[粘贴你的文字]‘请校对上面的文本。更正语法和拼写错误,并提供建议使我的写作更清晰。’
一代明君Kevin学长12 天前
自然语言处理·大语言模型·检索增强·文本处理·rag
RAG如何解决长文档chunking的信息丢失问题?常用的解决信息丢失的方式包括:延迟切分(Late Chunking)、代理切分(Agentic Chunking)等。 在构建检索增强生成(Retrieval-Augmented Generation, RAG)系统时,文本分块(Chunking)是决定系统性能的关键步骤。
deephub12 天前
人工智能·大语言模型·rag·langgraph
Agentic RAG:用LangGraph打造会自动修正检索错误的 RAG 系统标准 RAG 流水线有个根本性的毛病:检索到的文档一旦与用户意图对不上号,模型照样能面不改色地输出一堆看似合理的胡话,既没有反馈机制也谈不上什么纠错能力。
deephub13 天前
人工智能·深度学习·大语言模型·agent·剪枝·reg
DecEx-RAG:过程监督+智能剪枝,让大模型检索推理快6倍Agentic RAG 是当前 LLM 应用中一个非常火热的方向。与传统 RAG 不同它让模型在推理过程中自主决定要不要检索、什么时候检索。这样就相当于给模型一套工具让它自己判断该用哪个。
叶庭云16 天前
大语言模型·哈希算法·sha256·权重文件校验·python 脚本
一文学会大语言模型权重文件哈希校验 Python 脚本🍉 CSDN 叶庭云:https://yetingyun.blog.csdn.net/✅ 这个 Python 脚本(约 300 行代码量)实现了一个大语言模型权重文件哈希校验工具,主要功能包括:
deephub18 天前
人工智能·python·大语言模型·agent
Lux 上手指南:让 AI 直接操作你的电脑Lux 要是一个专门用于计算机操作的基础模型。和那些只会生成文字的 AI 不同,Lux 能看懂屏幕内容并理解自然语言描述的任务目标,然后实时操控计算机完成工作。
夏日白云18 天前
图像处理·机器学习·pdf·llm·大语言模型·rag·文档解析
《PDF解析工程实录》第 12 章|别让模型贴着墙走:为什么加一圈空白,效果反而更好?点此进入系列专栏先说结论:对于相当多的图像模型,在输入图像四周主动加一圈 Padding(空白边),往往能提升边界区域的识别效果。
PenguinLeee19 天前
llm·大语言模型·推理
LLM推理或者思考的一些本质性问题原文为Denny Zhou(Google Deepmind负责人)在Stanford为CS25课程做的一个报告。这篇博客是其笔记。