embedding

大傻^16 小时前
开发语言·人工智能·python·embedding·langchain4j
LangChain4j RAG 核心:Document、Embedding 与向量存储抽象RAG(Retrieval-Augmented Generation,检索增强生成)是当前 AI 应用的核心技术,它通过检索外部知识库来增强 LLM 的能力。LangChain4j 提供了完整的 RAG 栈,从文档加载、嵌入生成到向量存储,形成一条完整的数据链路。
青火coding1 天前
java·机器学习·ai·embedding
Embedding是什么?从文本转向量在了解embedding之前,我们先要知道向量是做什么的,为什么需要向量,我们使用中文好好的不行吗,es模糊匹配一样可以解决问题。
L-影2 天前
人工智能·ai·embedding
下篇:从静态到动态,Embedding的进化之路上篇咱们聊了Embedding是什么,以及Word2Vec这个开山鼻祖是怎么工作的。说白了,就是把词变成坐标,让意思相近的词在空间里也靠得近。
ん贤4 天前
开发语言·golang·embedding
一文读懂 Go-Eino 的 Embedding说到 embedding 组件,本质上就是把文本变成一串数字向量,让程序能“按语义理解文本”,而不只是按字符串匹配。
智慧地球(AI·Earth)4 天前
音视频·语音识别·embedding
谷歌发布 Gemini Embedding 2:首个原生全模态向量模型,打通音视频与图文!2026 年 3 月 10 日,谷歌 DeepMind 正式推出 Gemini Embedding 2。这不仅是常规的迭代,而是 AI 向量技术的一次重大跨越——它是谷歌首个基于 Gemini 架构构建的原生多模态嵌入模型 (Natively Multimodal Embedding Model)。它打破了不同媒介之间的壁垒,将文本、图像、视频、音频和 PDF 文档统一映射到了同一个向量空间中。
小蜗牛~向前冲6 天前
人工智能·python·神经网络·学习·机器学习·embedding
大模型学习系列-Embedding与向量数据库前言作者:小蜗牛向前冲名言:我可以接受失败,但我不能接受放弃如果觉的博主的文章还不错的话,还请点赞,收藏,关注👀支持博主。如果发现有问题的地方欢迎❀大家在评论区指正
新缸中之脑6 天前
embedding
Gemini Embedding 2嵌入模型通常一次只能理解一种类型的数据。文本进入一个模型。图像进入另一个模型。而音频则需要一个转录步骤。
大傻^7 天前
embedding·rag·长期记忆·上下文管理·openclaw·记忆架构
【OpenClaw -07】OpenClaw 记忆系统:三层记忆架构与 Daily Notes 机制标签:OpenClaw、记忆架构、RAG、Embedding、上下文管理、长期记忆在构建生产级 AI Agent 时,一个常被低估的架构难题是状态持久化。无状态的 LLM 调用虽然简单,但无法形成累积性的用户理解;而粗暴的全量历史拼接又很快会触达 Token 上限。OpenClaw 的记忆系统通过分层存储架构与智能归档机制,在上下文窗口限制与长期记忆能力之间建立了工程化的平衡。 本文将从架构实现角度,拆解 OpenClaw 的三层记忆模型、Daily Notes 持久化机制、语义检索配置策略以及多会话隔离
自传丶7 天前
笔记·学习·embedding
【学习笔记】大模型应用开发系列(二)Embedding 模型从应用开发的角度,你需要掌握三种数据形态,它们对应着不同的交互方式:自然语言文本 —— 最直接的接口 本质:人类思想的序列化表达
武汉知识图谱科技8 天前
人工智能·物联网·langchain·能源·知识图谱·embedding
超越预测性维护:基于知识超图与根因推理的能源电力“免疫系统”构建引言在新型电力系统加速构建与能源行业数字化转型的宏大背景下,传统的运维模式正面临前所未有的挑战。设备数量指数级增长、新能源间歇性与波动性加剧、电网运行工况日趋复杂,使得故障的“不可预知性”和“不可控性”陡增。当前主流的预测性维护(Predictive Maintenance)虽能基于数据趋势发出预警,却如同“只知病灶,不晓病因”的初级诊断,难以回答“为什么会发生?”、“影响有多大?”以及“该如何精准干预?”等深层问题。
Le0v1n8 天前
人工智能·自然语言处理·embedding
静态Embedding v.s. 动态上下文Embedding:NLP词向量的本质差异与落地全解本文从Embedding的核心本质出发,拆解静态Embedding与动态上下文Embedding的核心原理、本质差异、优缺点与落地选型,搭配可直接运行的对比实操代码,同时梳理面试高频考点,帮你一文搞懂NLP词向量的核心演进逻辑,彻底厘清新手最易混淆的概念误区。
EnCi Zheng25 天前
embedding
06. Embedding模型与向量化通过前5篇文档的学习,我们已经完成了RAG流水线的数据准备阶段。现在我们需要将这些文本片段转换为计算机能理解的数学表示。本文档将学习Embedding向量化技术,包括模型原理、主流模型对比、向量相似度计算方法以及模型选型指南,帮助我们构建高效的语义检索系统。
nudt_qxx25 天前
语言模型·transformer·embedding
讲透Transformer(二):深入解析EmbeddingEmbedding确实是理解 Transformer 架构的关键基础,需要各位读者详细掌握!让我详细解释两者的区别和实现方式。
芒果不茫QAQ1 个月前
python·aigc·embedding·rag·upstash
Upstash Vector 免费版完整使用指南upstash vector官网地址Upstash Vector 是一个托管式向量数据库服务,专为 AI 应用提供高性能的向量存储和相似性搜索能力。
香芋Yu1 个月前
学习·面试·embedding
【大模型面试突击】04_Embedding与表示学习23道精选高频题,覆盖BERT句向量、SimCSE、BGE、ColBERT、难负例挖掘到电商系统设计 | 资深老哥咖啡厅风格答疑
jFWTpMJfJjq1 个月前
embedding
今天搞了个好玩的——用COMSOL复现光子晶体扭转结构的能带和透射谱。这玩意儿和魔角石墨烯有点像,两个光子晶体叠一起转个角度,能带结构就开始整活了comsol光学仿真文献复现 计算Moire晶格,扭转光子晶体结构能带,透射谱先说说怎么建模。Moire晶格的关键是两个周期结构叠罗汉,这里用三角形空气孔光子晶体举例。COMSOL里手动画六边形晶格太麻烦,直接上脚本生成坐标:
2401_828890641 个月前
python·自然语言处理·transformer·embedding
正/余弦位置编码 Sinusoidal Encoding其中,pos 为词汇在句子中的位置索引;i 为特征维度索引,2i 代表偶数位置,2i + 1 代表奇数位置;d 为特征维度,在传统 Transformer 模型中默认为 512。
忧郁的橙子.1 个月前
数据库·embedding
02-嵌入模型和向量数据库在人工智能领域,向量表征(Vector Representation)是核心概念之一。通过将文本、图像、声音、行为甚至复杂关系转化为高维向量(Embedding),AI系统能够以数学方式理解和处理现实世界中的复杂信息。这种表征方式为机器学习模型提供了统一的“语言”。
钱彬 (Qian Bin)1 个月前
embedding·vllm·多模态检索·qwen3-vl
基于Qwen3-VL-Embedding-2B与vLLM构建高精度多模态图像检索系统在多模态人工智能迅速发展的今天,图像检索技术已从传统的基于元数据匹配,演进为基于内容的深度语义检索。构建高效、精准且具备语义理解能力的图像检索系统,是当前计算机视觉与自然语言处理交叉领域的重要课题。本文档旨在详细阐述如何利用最新的Qwen3-VL-Embedding-2B模型,结合vLLM推理框架与微服务架构,构建一个工业级的图像检索系统。
AI资源库1 个月前
langchain·nlp·bert·embedding·hugging face·fine-tuning·ai agent
解构嵌入模型之王:All-MiniLM-L6-v2 的文件树解密、蒸馏机制与工业级应用生态我们将文件分为四大类进行详细解读,并配合关系图谱说明它们如何协同工作。这部分定义了模型的“智商上限”和“思考方式”。