解决llama_index中使用Ollama出现timed out 问题

现象:

bash 复制代码
  File "~/anaconda3/envs/leo_py38/lib/python3.8/site-packages/httpx/_transports/default.py", line 86, in map_httpcore_exceptions
    raise mapped_exc(message) from exc
httpx.ReadTimeout: timed out

代码:

python 复制代码
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
from llama_index.embeddings.huggingface import HuggingFaceEmbedding
from llama_index.llms.ollama import Ollama

###定义使用的llm,embedding 模型
llm = Ollama(model="yi:34b")
embed_model = HuggingFaceEmbedding(model_name="BAAI/bge-large-zh-v1.5")
Settings.llm = llm
Settings.embed_model = embed_model

## 加载文档
documents = SimpleDirectoryReader("../../data").load_data()
print("documents: ", len(documents))

## 构建index
index = VectorStoreIndex.from_documents(documents, show_progress=True)

## 构建query engine
query_engine = index.as_query_engine()
query = "身长九尺,髯长二尺的人是谁?"

## query
response = query_engine.query(query)
print(f"query:{query}")
print(f"查询结果:{response}")

解决办法是增加timeout时长

python 复制代码
llm = Ollama(model="yi:34b", request_timeout=500)
相关推荐
Code_Artist21 小时前
LangChainGo构建RAG应用实况:切分策略、文本向量化、消除幻觉
机器学习·langchain·llm
究极无敌暴龙战神X1 天前
RAG基本流程
自然语言处理·llama·rag
半夏之沫1 天前
✨向量化✨和Embedding
人工智能·机器学习·llm
三木檾1 天前
LLM 应用开发的底层逻辑:模型只是一个无状态函数
llm·ai编程
@atweiwei1 天前
LangChainRust:用 Rust 构建高性能 LLM 应用的完整指南
开发语言·人工智能·ai·rust·大模型·llm·agent
code_pgf2 天前
Llama 3详解
人工智能·llama
m0_488913012 天前
万字长文带你梳理Llama开源家族:从Llama-1到Llama-3,看这一篇就够了!
人工智能·学习·机器学习·大模型·产品经理·llama·uml
helpme流水2 天前
LLaMA Factory 从入门到精通,一篇讲完
人工智能·ai·语言模型·llama
Tony沈哲2 天前
多智能体不是终点,而是起点:OpenVitamin 的 Agent Orchestration 的工程实现
架构·llm·agent
Pkmer2 天前
Agentic workflow实践:模拟邮件助手工作流
llm·agent