检索模型bi-encoder笔记

文章目录

bi-encoder的核心是独立编码(向量),然后计算相似度。

基础示例
python 复制代码
from sentence_transformers import SentenceTransformer, util

# 1. 加载预训练的 Bi-Encoder 模型
# 'all-MiniLM-L6-v2' 是一个速度快、效果好的轻量级模型
model = SentenceTransformer('all-MiniLM-L6-v2')

# 2. 定义两个句子
sentence1 = "深度学习模型在自然语言处理中的应用"
sentence2 = "NLP领域如何使用深度神经网络技术"

# 3. 分别将句子编码为向量
# Bi-Encoder 的核心:两个句子是独立编码的
embedding1 = model.encode(sentence1, convert_to_tensor=True)
embedding2 = model.encode(sentence2, convert_to_tensor=True)

# 4. 计算两个向量的余弦相似度
cosine_score = util.cos_sim(embedding1, embedding2)

print(f"句子1: '{sentence1}'")
print(f"句子2: '{sentence2}'")
print(f"语义相似度得分: {cosine_score.item():.4f}")

输出结果:

python 复制代码
句子1: '深度学习模型在自然语言处理中的应用'
句子2: 'NLP领域如何使用深度神经网络技术'
语义相似度得分: 0.3555

解读:

可以看到,过程为将语句1和语句2分别编码,然后计算相似度。

实际业务中,大概是如下方式:

1、语句2对应数据库数据,会提前向量化并保存。

2、语句1对应查询数据,会实时向量化。

3、然后拿查询的向量和数据库向量比对,这个是非常快的。

使用python和transform从零实现
python 复制代码
import torch
from transformers import AutoModel, AutoTokenizer

class SimpleBiEncoder(torch.nn.Module):
    def __init__(self, model_name="bert-base-chinese"):
        super().__init__()
        # 加载一个预训练的 Transformer 模型作为编码器
        self.encoder = AutoModel.from_pretrained(model_name)
        self.tokenizer = AutoTokenizer.from_pretrained(model_name)

    def encode(self, text):
        """将文本编码为向量"""
        # 对文本进行分词
        inputs = self.tokenizer(text, return_tensors="pt", padding=True, truncation=True)
        with torch.no_grad():
            # 获取模型输出
            outputs = self.encoder(**inputs)
            # 使用平均池化(Mean Pooling)将序列转换为一个句向量
            # 这是获取句子表示的常用方法之一
            return torch.mean(outputs.last_hidden_state, dim=1)

    def forward(self, text_a, text_b):
        """计算两个文本的相似度"""
        # 分别独立编码两个文本
        emb_a = self.encode(text_a)
        emb_b = self.encode(text_b)
        # 计算余弦相似度
        return torch.nn.functional.cosine_similarity(emb_a, emb_b)

# --- 使用示例 ---
if __name__ == "__main__":
    bi_encoder = SimpleBiEncoder()
    text1 = "深度学习模型架构"
    text2 = "神经网络结构设计"
    
    similarity = bi_encoder(text1, text2)
    print(f"文本相似度: {similarity.item():.4f}")
相关推荐
zhendeWD2 小时前
learn-claude-code笔记
人工智能·笔记
Hello_Embed3 小时前
嵌入式上位机开发入门(二):常用 API
笔记·stm32·嵌入式·信息与通信
九成宫3 小时前
IT项目管理期末复习——Chapter 3 项目管理过程组:案例研究
笔记·项目管理·软件工程
寒秋花开曾相惜3 小时前
(学习笔记)3.8 指针运算(3.8.5 变长数组)
java·c语言·开发语言·笔记·学习
南境十里·墨染春水3 小时前
C++笔记 构造函数 析构函数 及二者关系(面向对象)
开发语言·c++·笔记·ecmascript
talen_hx2963 小时前
《零基础入门Spark》学习笔记 Day 07
笔记·学习·spark
Cathy Bryant3 小时前
拓扑学:曲面与圆环
笔记·线性代数·矩阵·拓扑学
凉、介3 小时前
SylixOS 多核启动
服务器·笔记·学习·嵌入式·sylixos
Yu_Lijing4 小时前
基于C++的《Head First设计模式》笔记——原型模式
c++·笔记·设计模式