大语言模型

bl4ckpe4ch1 天前
llm·大语言模型·提示词工程·llm提示词
LLM提示词,究极提高效率【WIP】‘我想学习[插入话题]。确定并分享该话题最关键的20%内容,用于理解剩余80%。’[粘贴你的文字]‘请校对上面的文本。更正语法和拼写错误,并提供建议使我的写作更清晰。’
一代明君Kevin学长2 天前
自然语言处理·大语言模型·检索增强·文本处理·rag
RAG如何解决长文档chunking的信息丢失问题?常用的解决信息丢失的方式包括:延迟切分(Late Chunking)、代理切分(Agentic Chunking)等。 在构建检索增强生成(Retrieval-Augmented Generation, RAG)系统时,文本分块(Chunking)是决定系统性能的关键步骤。
deephub2 天前
人工智能·大语言模型·rag·langgraph
Agentic RAG:用LangGraph打造会自动修正检索错误的 RAG 系统标准 RAG 流水线有个根本性的毛病:检索到的文档一旦与用户意图对不上号,模型照样能面不改色地输出一堆看似合理的胡话,既没有反馈机制也谈不上什么纠错能力。
deephub3 天前
人工智能·深度学习·大语言模型·agent·剪枝·reg
DecEx-RAG:过程监督+智能剪枝,让大模型检索推理快6倍Agentic RAG 是当前 LLM 应用中一个非常火热的方向。与传统 RAG 不同它让模型在推理过程中自主决定要不要检索、什么时候检索。这样就相当于给模型一套工具让它自己判断该用哪个。
叶庭云6 天前
大语言模型·哈希算法·sha256·权重文件校验·python 脚本
一文学会大语言模型权重文件哈希校验 Python 脚本🍉 CSDN 叶庭云:https://yetingyun.blog.csdn.net/✅ 这个 Python 脚本(约 300 行代码量)实现了一个大语言模型权重文件哈希校验工具,主要功能包括:
deephub8 天前
人工智能·python·大语言模型·agent
Lux 上手指南:让 AI 直接操作你的电脑Lux 要是一个专门用于计算机操作的基础模型。和那些只会生成文字的 AI 不同,Lux 能看懂屏幕内容并理解自然语言描述的任务目标,然后实时操控计算机完成工作。
夏日白云8 天前
图像处理·机器学习·pdf·llm·大语言模型·rag·文档解析
《PDF解析工程实录》第 12 章|别让模型贴着墙走:为什么加一圈空白,效果反而更好?点此进入系列专栏先说结论:对于相当多的图像模型,在输入图像四周主动加一圈 Padding(空白边),往往能提升边界区域的识别效果。
PenguinLeee9 天前
llm·大语言模型·推理
LLM推理或者思考的一些本质性问题原文为Denny Zhou(Google Deepmind负责人)在Stanford为CS25课程做的一个报告。这篇博客是其笔记。
夏日白云9 天前
pdf·llm·大语言模型·rag·文档解析
《PDF解析工程实录》第 11 章|图像路线的工程现实:DPI、分辨率和内存炸裂点此进入系列专栏如果你在 PDF 解析里走过图像路线,大概率都经历过某个时刻:一开始我也以为问题出在模型上。
Bioinfo Guy9 天前
大语言模型·单细胞·多组学·队列研究
开源scRNA Tools 2.|利用 BayesPrism 剔除微环境背景并识别肿瘤亚克隆特征BayesPrism(Bayesian cell Proportion Reconstruction Inferred using Statistical Marginalization)是一款基于全贝叶斯推断的R包,专为解析**肿瘤微环境(TME)的复杂性而设计。该工具旨在通过统计边缘化方法,利用单细胞RNA-seq(scRNA-seq)数据作为先验参考,从大量RNA-seq(bulk RNA-seq)**样本中联合估计细胞类型的组成比例以及特定细胞类型的基因表达谱。
deephub10 天前
人工智能·大语言模型·向量检索·rag
大规模向量检索优化:Binary Quantization 让 RAG 系统内存占用降低 32 倍当文档库规模扩张时向量数据库肯定会跟着膨胀。百万级甚至千万级的 embedding 存储,float32 格式下的内存开销相当可观。
夏日白云10 天前
pdf·llm·大语言模型·rag·文档解析
《PDF解析工程实录》第 8 章|融合策略:不是兜底,而是信息利用率最大化点此进入系列专栏如果前几章解决的是“用什么能力”“怎么组织能力”,那这一章要回答的,是一个更现实的问题:
夏日白云10 天前
pdf·llm·大语言模型·多模态·rag·文档解析
《PDF解析工程实录》第 9 章|端到端多模态模型:不是接不住,而是要看业务能接受什么点此进入系列专栏如果你一路写到了 pipeline、融合、阅读顺序,再回头看端到端多模态模型,视角其实会发生明显变化。
deephub12 天前
人工智能·python·语言模型·大语言模型
dLLM:复用自回归模型权重快速训练扩散语言模型大语言模型的文本生成方式一直都是以自回归为主:一个token接一个token,从左往右,生成完就定了。
deephub12 天前
人工智能·python·大语言模型
CALM自编码器:用连续向量替代离散token,生成效率提升4倍过去这些年语言模型的效率优化基本围绕着两条主线展开:参数规模和注意力机制的复杂度。但有个更根本的问题一直被忽视,那就是自回归生成本身的代价。这种逐token生成的模式让模型具备了强大的通用性,同时也带来了难以回避的计算开销。
deephub15 天前
人工智能·python·自动化·大语言模型·行为评估
Anthropic 开源 Bloom:基于 LLM 的自动化行为评估框架Anthropic 最近放出了一个叫 Bloom 的开源框架,专门用来测试大语言模型会不会出现某些特定行为。比如模型是不是会阿谀奉承用户、有没有政治倾向、会不会为了自保撒谎或者试图绕过监督机制这类问题。
deephub16 天前
人工智能·python·深度学习·大语言模型·ai-agent
Pydantic-DeepAgents:基于 Pydantic-AI 的轻量级生产级 Agent 框架DeepAgents的灵感源自 LangChain deepagents,但在设计上更做减法,它强调类型安全且内置了 Docker 沙箱
audyxiao00117 天前
人工智能·机器学习·自动驾驶·大语言模型·多模态·gemini
如何用Gemini“上车”自动驾驶?通过视觉问答完成自动驾驶任务本推文介绍了一篇来自Waymo(谷歌旗下自动驾驶公司)的自动驾驶前沿研究论文《EMMA: End-to-End Multimodal Model for Autonomous Driving》。该论文发表于《Transactions on Machine Learning Research》,简称为TMLR。该期刊是机器学习顶刊《Journal of Machine Learning Research》的兄弟期刊。该研究针对传统模块化架构的接口僵化以及传统端到端模型的泛化能力不足问题,提出了一种基于多模态
deephub19 天前
人工智能·深度学习·大语言模型·gemma
1小时微调 Gemma 3 270M 端侧模型与部署全流程Gemma 3 270M是 Google 推出的一款虽小但能力惊人的开放模型。它属于 Gemma 家族,本质上是将 Gemini 模型中使用的相同技术带入了轻量级、可定制的形式中。
蜂蜜黄油呀土豆19 天前
langchain·大语言模型·embedding·向量数据库·rag
RAG 的基石:文本嵌入模型与向量数据库为什么 RAG 离不开 Embedding 与向量数据库?在上一篇文章中,我们已经讲过: RAG(Retrieval-Augmented Generation)本质上是“先找资料,再让大模型回答问题”。