Windows下调试Dify相关组件(2)--后端Api

1.部署依赖的服务(代码最外层的docker目录)

1.1 将middleware.env.example复制,并改名为middleware.env。

1.2 查看docker-compose.middleware.yaml,有5个服务

db:postgres数据库。

redis:redis缓存。

sandbox:沙盒,组件运行环境。

ssrf_proxy: 防服务端请求伪造(SSRF,server-side request forgery)攻击代理。

weaviate:向量数据库,没用到知识库可以暂时删掉。

1.3 启动 Docker Desktop

1.4 cmd命令行切到docker目录,运行命令

bash 复制代码
docker-compose -f docker-compose.middleware.yaml up -d

正常完成后 docker ps命令可以查看运行的容器:

2. 安装poetry

2.1 要求**python版本须是3.11或3.12,建议3.12。**已安装python 3.12.2,系统识别python命令。

2.2 Powershell 执行

bash 复制代码
(Invoke-WebRequest -Uri https://install.python-poetry.org -UseBasicParsing).Content | py -

或cmd命令行 (如系统配置的是python3命令,请将后面的python改为python3):

bash 复制代码
curl -sSL https://install.python-poetry.org | python -

参考官网:Introduction | Documentation | Poetry - Python dependency management and packaging made easy (python-poetry.org)

2.3 安装完成后,将安装路径加入到系统环境变量Path中,查看版本,目前是2.0.0:

bash 复制代码
poetry --version
3. Api服务(代码最外层的api目录)

1.1 将.env.example复制,并改名为.env。

1.2 随便设置.env文件里的SECRET_KEY,也可以在Linux下运行下面命令去生成key:

bash 复制代码
openssl rand -base64 42

1.3 PyCharm 打开api目录,设置Poetry虚拟环境的解释器

终端运行命令 poetry env info 可以查看python环境情况。

1.4 安装依赖包

bash 复制代码
poetry install

如果提示 pyproject.toml changed significantly since poetry.lock was last generated. Run `poetry lock` to fix the lock file. 则先运行下面命令:

bash 复制代码
poetry lock

1.5 同步数据库表

bash 复制代码
poetry run python -m flask db upgrade

1.6 配置启动如图所示,然后可以调试了

1.7 遇到的问题

一开始用的Python3.11+PyCharm社区2023,调试的时候出现下面警告

sys.settrace() should not be used when the debugger is being used. This may cause the debugger to stop working correctly.

然后能到达断点,但调试不了,原因不明。

后改用Python3.12+PyCharm社区2024就好了。

1.8 结束

相关推荐
掘金安东尼1 小时前
🚀使用 Trae + SSH “急速开发”一个可以公网访问的 web 社区应用!!
人工智能·面试·llm
moonless02224 小时前
【AI】MercuryCoder与LLaDA? 自回归模型与扩散模型的碰撞,谁才是未来的LLM答案?
人工智能·llm
小小工匠6 小时前
LLM - Dify(1.0.1)搭建本地私有RAG知识库完整指南
llm·知识库·dify·rag
_Meilinger_12 小时前
大模型微调|使用 LLaMA-Factory 微调 Llama3-8B-Chinese-Chat 完成知识问答任务
大模型·llm·微调·llama·大模型微调·llama-factory·unsloth
西西弗Sisyphus20 小时前
大模型推理后JSON数据后处理
llm·json·json_repair
SaebaRyo1 天前
作为一个前端er如何了解LLM(大语言模型)
前端·llm
胡耀超1 天前
Xinference大模型配置介绍并通过git-lfs、hf-mirror安装
人工智能·git·python·大模型·llm·xinference
潘锦2 天前
AI 架构师必备:提示词的攻与防
llm
后端小肥肠2 天前
从裁员到年薪百万:程序员靠RAG技术逆袭的“核心密码”
人工智能·llm·deepseek
Hamm3 天前
MCP 很火,来看看我们直接给后台管理系统上一个 MCP?
后端·llm·mcp