技术栈
embedding
Lkygo
3 天前
人工智能
·
embedding
·
vllm
·
sglang
Embedding 和 Reranker 模型
目录1. 理论1.1 Embedding 模型:文字的「数字身份证」1.2 Reranker 模型:结果的「智能排序员」
love398146779
4 天前
embedding
Embedding,rerank,lora区别
人工智能中rag+llm大模型学习,经常听到有些名词,其中embedding ,rerank,lora容易混淆。
CodeCaptain
5 天前
经验分享
·
embedding
·
dify
huggingface.co下载Qwen3-Embedding模型的步骤
阿里云通义千问目前已经在Huggingface.co开源,提供对外下载。 Qwen3-Embedding(也常写作 Qwen-3-Embedding)是针对中文优化的高性能嵌入模型,从 Hugging Face 下载并本地部署的步骤如下,涵盖环境准备、模型下载、验证使用全流程:
liuc0317
5 天前
embedding
·
milvus
调用embedding生成向量并存储到milvus中,进行查询
windows 环境下安装 Milvus: https://blog.csdn.net/u010548003/article/details/152000409
薛定谔的猫1982
6 天前
langchain
·
embedding
Langchain(四)文本嵌入模型(Embedding Model)
文本嵌入模型是自然语言处理的核心,它能将文本转换为数值向量,使机器能够捕捉和处理语义信息 。LangChain框架通过Embeddings类为众多嵌入模型提供商(如OpenAI、Cohere、Hugging Face等)提供了一个标准的交互接口 。
蹦蹦跳跳真可爱589
8 天前
人工智能
·
pytorch
·
python
·
gpt
·
embedding
Python----大模型(GPT-2模型训练加速,训练策略)
原理:NVIDIA的Tensor Core支持混合精度计算(FP16/FP32),通过Volta/Turing/Ampere架构的GPU(如V100/A100)加速矩阵运算。
蹦蹦跳跳真可爱589
10 天前
开发语言
·
人工智能
·
pytorch
·
python
·
gpt
·
深度学习
·
embedding
Python----大模型(GPT-2模型训练,预测)
GPT-2模型的核心架构基于Transformer解码器,采用自回归方式生成文本。模型构建部分定义了GPTConfig配置类,包含关键参数如block_size(序列长度)、vocab_size(词表大小)、n_layer(层数)、n_head(注意力头数)和n_embd(嵌入维度)。
paopao_wu
10 天前
人工智能
·
python
·
embedding
AI应用开发-Python:Embedding
向量表征(Vector Representation)是核心概念之一。通过将文本、图像、声音、行为甚至复杂关系转化为高维向量(Embedding),AI系统能够以数学方式理解和处理现实世界中的复杂信息。这种表征方式为机器学习模型提供了统一的“语言”。
摸鱼仙人~
12 天前
深度学习
·
transformer
·
embedding
深度学习训练中的隐形杀手:内部协变量偏移与批量归一化
在深度学习模型的训练过程中,我们经常追求更快的收敛速度和更高的准确率。然而,在复杂的神经网络内部,存在一个隐形的“杀手”,它严重阻碍了模型的学习效率,它就是内部协变量偏移 (Internal Covariate Shift, ICS)。
摸鱼仙人~
13 天前
深度学习
·
transformer
·
embedding
深入理解 Transformer:位置编码 (Positional Encoding) 与位置嵌入 (Positional Embedding) 的核心区别
Transformer 架构自 2017 年诞生以来,彻底改变了自然语言处理(NLP)领域。它强大的自注意力机制(Self-Attention)允许模型捕捉句子中的长距离依赖关系。然而,自注意力机制本身是与词序无关的,这意味着如果打乱一个句子的词序,自注意力层的输出可能保持不变。
Yeats_Liao
15 天前
rnn
·
lstm
·
embedding
MindSpore开发之路(十一):构建循环神经网络(RNN):`RNN`, `LSTM`, `Embedding`层
在上一篇文章中,我们探索了卷积神经网络(CNN)如何像“火眼金睛”一样高效地处理图像数据。然而,现实世界中的数据并非都是静态的图片,还有大量按顺序排列的数据,例如一段文字、一首乐曲、或者一段时间内的股票价格。这类数据被称为序列数据。
weixin_40467931
16 天前
embedding
VL-JEPA: Joint Embedding Predictive Architecture for Vision-language
架构图1. 不再是学习Y跟Yhat,而是\(S_Y和\hat{S_Y}\).思路跟stable diffusion一样.不在真实Y空间学习,而是在Y编码之后的隐空间学习.所以维度更低.效果更好.
LDG_AGI
18 天前
人工智能
·
pytorch
·
深度学习
·
机器学习
·
数据挖掘
·
embedding
【推荐系统】深度学习训练框架(十七):TorchRec之KeyedJaggedTensor
KeyedJaggedTensor (KJT) 是 TorchRec v1.0 中用于表示稀疏特征的核心数据结构之一,专门设计用于高效管理多个变长特征序列。 在推荐系统中,它能够同时处理用户历史点击(click_ids)、搜索词(search_ids)等多种稀疏特征,是构建大规模推荐系统的基础组件。
阿杰学AI
19 天前
人工智能
·
机器学习
·
ai
·
语言模型
·
自然语言处理
·
embedding
·
词向量
AI核心知识61——大语言模型之Embedding (简洁且通俗易懂版)
Embedding (词向量) 是大语言模型把“人类语言”翻译成“计算机能懂的数学语言” 的那个关键步骤。
minhuan
20 天前
embedding
·
大模型应用
·
向量数据库与元数据
·
向量复合查询
大模型应用:向量与元数据联动:解锁向量数据库复合查询的核心能力.30
在大模型与检索增强生成(RAG)技术普及的今天,向量数据库已成为连接非结构化数据与 AI 应用的核心组件。传统向量检索仅依靠向量相似度匹配目标数据,在实际业务场景中却往往力不从心,比如在检索“2024 年发布的 AI 技术论文”时,仅通过向量相似性可能会返回大量无关领域的旧文档。
蜂蜜黄油呀土豆
20 天前
langchain
·
大语言模型
·
embedding
·
向量数据库
·
rag
RAG 的基石:文本嵌入模型与向量数据库
为什么 RAG 离不开 Embedding 与向量数据库?在上一篇文章中,我们已经讲过: RAG(Retrieval-Augmented Generation)本质上是“先找资料,再让大模型回答问题”。
喜欢吃豆
21 天前
embedding
·
拓扑学
·
rag
异构向量空间失配机制与负余弦相似度的深层拓扑学解析(RAG索引,检索期间embedding模型不一致会带来的后果)
——从黎曼流形错位到语义检索失效的系统性研究在当代自然语言处理(NLP)与神经信息检索(NIR)体系中,向量嵌入(Vector Embedding)是连接离散符号与连续语义空间的桥梁。
小程故事多_80
24 天前
数据库
·
人工智能
·
sql
·
开源
·
aigc
·
embedding
开源界核弹级输出!蚂蚁 Agentar-Scale-SQL 凭 “编排式扩展” 技术,成为 Text-to-SQL 天花板
在数字化时代,数据已成为企业和组织的核心资产,但如何让非技术人员轻松获取数据 insights 一直是行业难题。传统的 SQL 查询要求使用者掌握专业的编程语言知识,这在很大程度上限制了数据的普及应用。而 Text-to-SQL 技术的出现,让用户可以用自然语言提问,系统自动生成对应的 SQL 语句,极大降低了数据访问的门槛。在这一领域,蚂蚁集团推出的 Agentar-Scale-SQL 凭借其卓越的性能和创新的技术方案,成为行业关注的焦点。
Blossom.118
24 天前
人工智能
·
分布式
·
深度学习
·
安全
·
web安全
·
开源软件
·
embedding
基于图神经网络+大模型的网络安全APT检测系统:从流量日志到攻击链溯源的实战落地
摘要:在护网行动中,传统IDS对APT攻击的检出率不足15%,漏报的高级威胁导致内网沦陷。我用GraphSAGE+LogsBERT+Neo4j搭建了一套APT检测系统:自动从Suricata日志构建"主机-进程-网络"异构图,GNN识别异常行为模式,LLM生成攻击链语义报告。上线后,APT检出率提升至97.3%,误报率从120次/天降至3次/天,攻击溯源时间从8小时压缩至25分钟。核心创新是将ATT&CK战术映射为图结构特征,让LLM学会"黑客语言翻译"。附完整Suricata插件化代码和威胁狩猎平台集成
丝瓜蛋汤
24 天前
人工智能
·
embedding
Conan-embedding整理
embedding: 将文字映射到高维连续空间中,相似的文字有更靠近的向量表征。现有方法的缺陷:一般,embedding模型通过对比学习来训练,负例的质量对于模型表现非常关键。之前的研究提出了很多难负样本挖掘策略,这些策略都只在预处理阶段使用,限制了模型处理复杂多变的训练数据的能力。