chromadb使用hugging face模型时利用镜像网站下载注意事项

chromadb默认使用sentence-transformers/all-MiniLM-L6-v2的词嵌入(词向量)模型,如果在程序首次运行时,collection的add或query操作时如果没有指定embeddings或query_embeddings,程序会自动下载相关嵌入向量模型,但是由于默认hugging face后端网络下载速度常常非常慢,所以需要指定镜像网站以加快模型下载速度。

windows系统下具体操作步骤如下:

1、安装huggingface_hub:

bash 复制代码
pip install huggingface_hub

2、设置huggingface后端镜像网址系统变量:

bash 复制代码
set HF_ENDPOINT=https://hf-mirror.com

3、检查系统变量是否设置成功:

bash 复制代码
hf env

4、x下载指定模型(如all-MiniLM-L6-v2模型)到本地指定文件夹中:

bash 复制代码
huggingface-cli download sentence-transformers/all-MiniLM-L6-v2 --local-dir ./models/all-MiniLM-L6-v2 --resume-download --local-dir-use-symlinks False

5、在程序中使用本地模型(如all-MiniLM-L6-v2模型)示例:

python 复制代码
from sentence_transformers import SentenceTransformer

# 指定本地模型路径(注意替换为实际路径)
model_path = r".\models\all-MiniLM-L6-v2"  # Windows路径建议用r""避免转义问题
model = SentenceTransformer(model_path)  # 从本地加载模型

# 输入句子列表
sentences = ["This is an example sentence.", "Each sentence is converted."]
embeddings = model.encode(sentences)  # 生成384维向量

# 打印结果(示例)
print("向量维度:", embeddings.shape)
for i, emb in enumerate(embeddings):
    print(f"句子 '{sentences[i]}' 的前5维向量: {emb[:5]}")

6、在chromadb中使用本地词嵌入向量模型示例:

python 复制代码
import chromadb
from sentence_transformers import SentenceTransformer

# 指定本地模型路径(注意替换为实际路径)
model_path = r".\models\all-MiniLM-L6-v2"  # Windows路径建议用r""避免转义问题
model = SentenceTransformer(model_path)  # 从本地加载模型

chroma_client = chromadb.Client()

collection = chroma_client.create_collection(
    name="my_collection"
)

#文本
documents=[
    "This is a document about pineapple",
    "This is an island of the USA",
    "This is a location where there are many tourists",
    "This is a document about oranges"
    
]

#文本通过模型转换为向量
embeddings = model.encode(documents) 

#像集合中添加记录
collection.add(
    embeddings=embeddings,
    ids=["id1", "id2","id3","id4"],
    documents=documents
)

#查询语句
query_texts=["This is a query document about hawaii"]
#查询语句通过模型转换为向量
query_embeddings = model.encode(query_texts)

#查询数据
results = collection.query(
    query_embeddings=query_embeddings,
    query_texts=query_texts, # Chroma will embed this for you
    n_results=2 # how many results to return
)

print(results)
相关推荐
AI探索者15 小时前
LangGraph StateGraph 实战:状态机聊天机器人构建指南
python
AI探索者15 小时前
LangGraph 入门:构建带记忆功能的天气查询 Agent
python
FishCoderh17 小时前
Python自动化办公实战:批量重命名文件,告别手动操作
python
躺平大鹅17 小时前
Python函数入门详解(定义+调用+参数)
python
曲幽18 小时前
我用FastAPI接ollama大模型,差点被asyncio整崩溃(附对话窗口实战)
python·fastapi·web·async·httpx·asyncio·ollama
两万五千个小时21 小时前
落地实现 Anthropic Multi-Agent Research System
人工智能·python·架构
哈里谢顿1 天前
Python 高并发服务限流终极方案:从原理到生产落地(2026 实战指南)
python
用户8356290780512 天前
无需 Office:Python 批量转换 PPT 为图片
后端·python
markfeng82 天前
Python+Django+H5+MySQL项目搭建
python·django
GinoWi2 天前
Chapter 2 - Python中的变量和简单的数据类型
python