chromadb使用hugging face模型时利用镜像网站下载注意事项

chromadb默认使用sentence-transformers/all-MiniLM-L6-v2的词嵌入(词向量)模型,如果在程序首次运行时,collection的add或query操作时如果没有指定embeddings或query_embeddings,程序会自动下载相关嵌入向量模型,但是由于默认hugging face后端网络下载速度常常非常慢,所以需要指定镜像网站以加快模型下载速度。

windows系统下具体操作步骤如下:

1、安装huggingface_hub:

bash 复制代码
pip install huggingface_hub

2、设置huggingface后端镜像网址系统变量:

bash 复制代码
set HF_ENDPOINT=https://hf-mirror.com

3、检查系统变量是否设置成功:

bash 复制代码
hf env

4、x下载指定模型(如all-MiniLM-L6-v2模型)到本地指定文件夹中:

bash 复制代码
huggingface-cli download sentence-transformers/all-MiniLM-L6-v2 --local-dir ./models/all-MiniLM-L6-v2 --resume-download --local-dir-use-symlinks False

5、在程序中使用本地模型(如all-MiniLM-L6-v2模型)示例:

python 复制代码
from sentence_transformers import SentenceTransformer

# 指定本地模型路径(注意替换为实际路径)
model_path = r".\models\all-MiniLM-L6-v2"  # Windows路径建议用r""避免转义问题
model = SentenceTransformer(model_path)  # 从本地加载模型

# 输入句子列表
sentences = ["This is an example sentence.", "Each sentence is converted."]
embeddings = model.encode(sentences)  # 生成384维向量

# 打印结果(示例)
print("向量维度:", embeddings.shape)
for i, emb in enumerate(embeddings):
    print(f"句子 '{sentences[i]}' 的前5维向量: {emb[:5]}")

6、在chromadb中使用本地词嵌入向量模型示例:

python 复制代码
import chromadb
from sentence_transformers import SentenceTransformer

# 指定本地模型路径(注意替换为实际路径)
model_path = r".\models\all-MiniLM-L6-v2"  # Windows路径建议用r""避免转义问题
model = SentenceTransformer(model_path)  # 从本地加载模型

chroma_client = chromadb.Client()

collection = chroma_client.create_collection(
    name="my_collection"
)

#文本
documents=[
    "This is a document about pineapple",
    "This is an island of the USA",
    "This is a location where there are many tourists",
    "This is a document about oranges"
    
]

#文本通过模型转换为向量
embeddings = model.encode(documents) 

#像集合中添加记录
collection.add(
    embeddings=embeddings,
    ids=["id1", "id2","id3","id4"],
    documents=documents
)

#查询语句
query_texts=["This is a query document about hawaii"]
#查询语句通过模型转换为向量
query_embeddings = model.encode(query_texts)

#查询数据
results = collection.query(
    query_embeddings=query_embeddings,
    query_texts=query_texts, # Chroma will embed this for you
    n_results=2 # how many results to return
)

print(results)
相关推荐
tjjucheng1 小时前
靠谱的小程序定制开发哪个好
python
num_killer1 小时前
小白的Langchain学习
java·python·学习·langchain
WangYaolove13141 小时前
基于深度学习的中文情感分析系统(源码+文档)
python·深度学习·django·毕业设计·源码
自学不成才2 小时前
深度复盘:一次flutter应用基于内存取证的黑盒加密破解实录并完善算法推理助手
c++·python·算法·数据挖掘
徐先生 @_@|||3 小时前
Palantir Foundry 五层架构模型详解
开发语言·python·深度学习·算法·机器学习·架构
深蓝电商API4 小时前
Scrapy爬虫限速与并发控制最佳实践
爬虫·python·scrapy
Derrick__14 小时前
淘宝MD5爬虫
爬虫·python
薛定谔的猫19824 小时前
llama-index Embedding 落地到 RAG 系统
开发语言·人工智能·python·llama-index
nimadan126 小时前
**手机小说扫榜工具2025推荐,精准追踪榜单动态与题材风向
python·智能手机
编程武士6 小时前
Python 各版本主要变化速览
开发语言·python