解决llama_index中使用Ollama出现timed out 问题

现象:

bash 复制代码
  File "~/anaconda3/envs/leo_py38/lib/python3.8/site-packages/httpx/_transports/default.py", line 86, in map_httpcore_exceptions
    raise mapped_exc(message) from exc
httpx.ReadTimeout: timed out

代码:

python 复制代码
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
from llama_index.embeddings.huggingface import HuggingFaceEmbedding
from llama_index.llms.ollama import Ollama

###定义使用的llm,embedding 模型
llm = Ollama(model="yi:34b")
embed_model = HuggingFaceEmbedding(model_name="BAAI/bge-large-zh-v1.5")
Settings.llm = llm
Settings.embed_model = embed_model

## 加载文档
documents = SimpleDirectoryReader("../../data").load_data()
print("documents: ", len(documents))

## 构建index
index = VectorStoreIndex.from_documents(documents, show_progress=True)

## 构建query engine
query_engine = index.as_query_engine()
query = "身长九尺,髯长二尺的人是谁?"

## query
response = query_engine.query(query)
print(f"query:{query}")
print(f"查询结果:{response}")

解决办法是增加timeout时长

python 复制代码
llm = Ollama(model="yi:34b", request_timeout=500)
相关推荐
浮华落定几秒前
RagFlow+Ollama 构建RAG私有化知识库
知识库·rag·ollama·ragflow
jessezappy7 小时前
记录:Docker 安装记录
docker·安装·ollama·软链接
神秘的土鸡8 小时前
使用Open WebUI下载的模型文件(Model)默认存放在哪里?
人工智能·llama·ollama·openwebui
初窺門徑17 小时前
llama-factory部署微调方法(wsl-Ubuntu & Windows)
llama·大模型微调·llama-factory
呱牛do it1 天前
离线部署大模型:ollama+deepseek+open-webui
人工智能·ollama·deepseek
Neo很努力2 天前
【deepseek】本地部署+RAG知识库挂载+对话测试
自然语言处理·chatgpt·langchain·aigc·llama
大鱼>2 天前
Ubuntu 服务器Llama Factory 搭建DeepSeek-R1微调训练环境
llama·大模型微调·deepseek
Stara05112 天前
AI客服-接入deepseek大模型到微信(本地部署deepseek集成微信自动收发消息)
微信·node·ollama·deepseek
致Great2 天前
从零开始优化 RAG 流程的终极指南,解决检索增强生成的核心挑战
人工智能·llm
a41324472 天前
亲测Windows部署Ollama+WebUI可视化
windows·ollama·open-webui·deepseek本地化部署