embedding

deephub1 小时前
人工智能·python·大语言模型·embedding·向量检索
向量数据库对比:Pinecone、Chroma、Weaviate 的架构与适用场景向量数据库存储 Embedding,也就是文本、图像或音频的数值表示,并在查询时检索语义上最接近的结果。RAG 系统正是基于这一机制运作。本文对比三个主流方案,每个都附有 Python 代码,均来自实际在生产环境中使用三者的经验。 三种选择:Pinecone 用于生产级规模,Chroma 用于本地原型开发,Weaviate 用于混合搜索。
F_D_Z1 天前
分布式·word·embedding
Word Embedding :从分布式假设到神经网络语言模型Word Embedding(词嵌入)是一种将离散的词汇符号映射到连续的低维稠密向量空间的技术。在这个向量空间中,语义相似的词在几何距离上彼此接近,从而实现了从"符号匹配"到"语义计算"的跨越 。
pzx_0011 天前
人工智能·pytorch·embedding
【Pytorch】nn.Embedding函数详解Pytorch官方注解:https://docs.pytorch.org/docs/stable/generated/torch.nn.modules.sparse.Embedding.html
Anastasiozzzz1 天前
数据库·人工智能·ai·embedding
深入研究RAG: 在线阶段-查询&问答在前面的学习中,我们研究了RAG在离线阶段进行的工作----文档解析、文本分片与向量化,那么接下来就来研究一下在线阶段如何使用我们已经准备好的数据吧
laufing2 天前
langchain·embedding·rag
RAG 基础版 -- 基于langchain框架基于langchain 0.3.28 构建RAGpending
热爱生活的猴子5 天前
笔记·embedding
Tokenizer 与 Embedding 核心笔记核心逻辑:文本 → Tokenizer(文字转ID)→ Embedding(ID转语义向量),二者是模型处理文本的“必经两步”,缺一不可
boonya5 天前
java·数据库·embedding·动态切换大模型
Embedding模型与向量维度动态切换完整方案在做RAG的过程中,Embedding前期可以固定设置但是后面要测试验证效果还是要通过不同的模型去测试优化。在一系列操作之后,最后我们的目的可能转向训练自己的大模型,但这都是后话了。
小驴程序源5 天前
gpt·langchain·aigc·embedding·ai编程·llama·gpu算力
【OpenClaw 完整安装实施教程(Windows + Ollama 本地模型)】OpenClaw(俗称 “小龙虾”)是一款开源、本地优先、以任务执行为核心的 AI 智能体(Agent)框架,核心价值是将 AI 从 “只给建议” 的对话模式,升级为 “动手执行” 的自动化模式
deephub5 天前
人工智能·大语言模型·embedding·rag
多 Aspect Embedding:将上下文信号编入向量相似性计算的检索架构向量数据库的核心任务是对文本或其他非结构化数据生成的 Embedding 做相似性搜索。时间戳、文档类型、所有权一类的上下文约束,一般以外部过滤器的形式在向量搜索前后进行。多数场景下这一架构运作正常,但当上下文信号需要参与排序就会有问题。本文分析传统向量数据库架构的过滤与检索机制,并介绍 Aspected 的 Aspect Database:一个面向 AI 系统的上下文感知检索引擎,将上下文属性经由多 Aspect Embedding 直接编码进相似性计算所用的表示中。
夜幕下的ACM之路6 天前
人工智能·学习·transformer·embedding
一、基础知识学习(Transformer + 上下文窗口 + Token 计算 + Embedding 向量)什么是LLM? 大型语言模型,基于 Transformer 架构,通过海量文本训练,能理解、生成人类语言。
Trouvaille ~6 天前
算法·langchain·大模型·embedding·rag·langgraph·llm应用
零基础入门 LangChain 与 LangGraph(一):理解大模型、提示词、Embedding 和接入方式💬 开篇:很多人学 LangChain,一上来就先背 PromptTemplate、ChatModel、Retriever、Agent 这些名词,结果越学越乱。我一开始也差点走这条路,后来才发现,LangChain 本质上只是把模型调用、提示词设计、检索、工具调用和工作流编排这些东西组织起来的框架。基础概念没搞懂,后面看再多 API 也只是“会抄不会用”。官方文档现在对两者的定位也很明确:LangChain 更像构建 LLM 应用和 Agent 的高层框架,而 LangGraph 更偏底层的 Agent
最贪吃的虎6 天前
人工智能·python·算法·机器学习·aigc·embedding·llama
我的第一个 RAG 程序:从 0 到 1,用 PDF 搭一个最小可运行的知识库问答系统这篇文章,我就结合自己的第一版代码,完整记录一下:RAG 到底是什么我的第一个 RAG 程序是怎么跑起来的
yumgpkpm8 天前
开源·prompt·copilot·embedding·llama·gpu算力·gitcode
华为昇腾910B(Ascend 910B)+ LLaMA-Factory 对 Qwen3.5-32B 模型进行 LoRA 微调 的全流程操作指南华为昇腾910B(Ascend 910B)上 LLaMA-Factory 对 Qwen3.5-32B 模型进行 LoRA 微调 的保姆级全流程操作指南
sun_tao19 天前
人工智能·llm·embedding·rag
RAG 系统 Embedding 选型要点1. 语言匹配场景推荐方向纯中文BGE-zh、M3E、text2vec-chinese中英混合BGE-M3、multilingual-e5、GTE
Anastasiozzzz11 天前
embedding
深入理解RAG:文本分片(Chunking)上一篇我们已经详细讲解了RAG的总体流程和第一步:文件解析那么接下来我们来深入研究文本分片与向量化原理:Embedding 模型将文本映射为一个固定长度的向量(如 1536 维)。这个向量本质上是文本所有语义的加权平均。
人工智能小豪11 天前
人工智能·ai·llm·prompt·embedding·agent·rag
LLM的具身鸿沟有解了!微调让大模型真正学会人类的感官与动作感知当大语言模型能写代码、做方案、甚至通过司法考试,却始终搞不懂一个简单的问题:为什么“尖叫”和听觉、口腔动作强相关,为什么“苹果”的视觉感知强度远高于嗅觉?
mo_alo12 天前
笔记·embedding·ai编程·claude·ecc
Everything Claude Code 完全指南:给 Claude Code 装上涡轮增压【安装和使用超详细教程!!!】一句话总结:Everything Claude Code(ECC)不是另一个 AI 编程工具,而是给官方 Claude Code CLI 量身定制的"高级改装套件"——28 个专家子代理、119 个技能、60 个命令、自动化钩子、最佳实践规则,一键武装你的 AI 编程助手。
大傻^21 天前
开发语言·人工智能·python·embedding·langchain4j
LangChain4j RAG 核心:Document、Embedding 与向量存储抽象RAG(Retrieval-Augmented Generation,检索增强生成)是当前 AI 应用的核心技术,它通过检索外部知识库来增强 LLM 的能力。LangChain4j 提供了完整的 RAG 栈,从文档加载、嵌入生成到向量存储,形成一条完整的数据链路。
青火coding21 天前
java·机器学习·ai·embedding
Embedding是什么?从文本转向量在了解embedding之前,我们先要知道向量是做什么的,为什么需要向量,我们使用中文好好的不行吗,es模糊匹配一样可以解决问题。
L-影22 天前
人工智能·ai·embedding
下篇:从静态到动态,Embedding的进化之路上篇咱们聊了Embedding是什么,以及Word2Vec这个开山鼻祖是怎么工作的。说白了,就是把词变成坐标,让意思相近的词在空间里也靠得近。