解决llama_index中使用Ollama出现timed out 问题

现象:

bash 复制代码
  File "~/anaconda3/envs/leo_py38/lib/python3.8/site-packages/httpx/_transports/default.py", line 86, in map_httpcore_exceptions
    raise mapped_exc(message) from exc
httpx.ReadTimeout: timed out

代码:

python 复制代码
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
from llama_index.embeddings.huggingface import HuggingFaceEmbedding
from llama_index.llms.ollama import Ollama

###定义使用的llm,embedding 模型
llm = Ollama(model="yi:34b")
embed_model = HuggingFaceEmbedding(model_name="BAAI/bge-large-zh-v1.5")
Settings.llm = llm
Settings.embed_model = embed_model

## 加载文档
documents = SimpleDirectoryReader("../../data").load_data()
print("documents: ", len(documents))

## 构建index
index = VectorStoreIndex.from_documents(documents, show_progress=True)

## 构建query engine
query_engine = index.as_query_engine()
query = "身长九尺,髯长二尺的人是谁?"

## query
response = query_engine.query(query)
print(f"query:{query}")
print(f"查询结果:{response}")

解决办法是增加timeout时长

python 复制代码
llm = Ollama(model="yi:34b", request_timeout=500)
相关推荐
人工干智能8 小时前
科普:LLM领域中的“样本(sample)”、“指令(instruction)”和“提示词(prompt)”
llm·prompt
mwq301239 小时前
解密“混合专家模型” (MoE) 的全部魔法
人工智能·llm
illuspas11 小时前
MI50运算卡使用llama.cpp的ROCm后端运行Qwen3-Coder-30B-A3B的速度测试
人工智能·llama
herogus丶11 小时前
【LLM】LLaMA-Factory 训练模型入门指南
python·ai编程·llama
illuspas11 小时前
MI50运算卡使用llama.cpp的ROCm后端运行gpt-oss-20b的速度测试
人工智能·gpt·llama
谏书稀11 小时前
LLaMA Factory微调大模型
python·transformer·llama
大隐隐于野13 小时前
从零开始理解和编写LLM中的KV缓存
java·缓存·llm
智泊AI15 小时前
大语言模型如何微调(Fine-tuning)?
llm
大模型教程15 小时前
2张4090本地微调万亿参数模型!KTransformers上线模型微调功能,使用指南来了
程序员·llm·agent
大模型教程15 小时前
快速上手Qwen Code:本地部署与环境配置全攻略
程序员·llm·agent