window Intel(R) 安装 ComfyUI时解决 Torch not compiled with CUDA enabled 问题

你好,我是 shengjk1,多年大厂经验,努力构建 通俗易懂的、好玩的编程语言教程。 欢迎关注!你会有如下收益:

  1. 了解大厂经验
  2. 拥有和大厂相匹配的技术等

希望看什么,评论或者私信告诉我!

一、前言

上一篇我们了解到了什么是 CUDA 以及 Intel® Lris(R)Xe Graphics ,了解清楚后,下面我们在 Intel® Lris(R)Xe Graphics 机器上 开始本地安装 ComfyUI。

二、安装 ComfyUI

2.0 安装 aconda

2.1 步骤1:检查GPU是否支持CUDA

我的是 Intel® Lris(R)Xe Graphics 不支持 CUDA

2.2 安装 PyTorch版本

进入 pytorch官网,pytorch.org/get-started... 选择合适的方式下载合适的包

2.3 下载 ComfyUI

此步需要你将 ComfyUI 代码拉到本地。如果你会 Git 请在 Terminal 运行以下代码,即可完成此步骤:

git clone github.com/comfyanonym...

2.4 进入到 ComfyUI

cd /ComfyUI

2.5 安装依赖

pip install -r requirements.txt

三、启动服务

python main.py --disable-cuda-malloc --use-split-cross-attention --cpu

--disable-cuda-malloc:这个选项可能是用于禁用使用CUDA(Compute Unified Device Architecture)库中的内存分配功能。CUDA是由NVIDIA提供的并行计算平台和编程模型,用于在NVIDIA GPU上加速计算任务。禁用CUDA内存分配可能意味着程序将不再使用GPU上的内存管理功能。

--use-split-cross-attention:这个选项可能指示程序使用分割的跨注意力(cross-attention)机制。在深度学习中,跨注意力是一种模型结构,用于处理序列到序列的任务,使得模型能够有效地关注输入序列的不同部分。使用分割的跨注意力可能意味着模型使用了一种特定的注意力机制变体。

--cpu:这个选项可能指明程序应在CPU上执行,而不是在GPU上执行。在深度学习任务中,通常会使用GPU来加速计算,因为GPU具有并行计算的优势。但是,有时候也可以选择在CPU上运行,尤其是当GPU资源有限或者任务不需要太多计算性能时。

四、总结

这篇文章为读者提供了在Intel® Iris(R) Xe Graphics机器上安装和启动ComfyUI的详细指南,强调了即使在不支持CUDA的环境下,通过选择正确的启动参数和配置,也能有效地运行深度学习应用。此外,文章通过作者shengjk1的介绍,展示了其对于编写有教育意义且易于理解的编程内容的承诺,以及分享大厂技术经验的意图。

相关推荐
wan5555cn4 分钟前
多张图片生成视频模型技术深度解析
人工智能·笔记·深度学习·算法·音视频
格林威1 小时前
机器视觉检测的光源基础知识及光源选型
人工智能·深度学习·数码相机·yolo·计算机视觉·视觉检测
程序员爱钓鱼1 小时前
Go语言实战案例 — 工具开发篇:实现一个图片批量压缩工具
后端·google·go
困鲲鲲1 小时前
Python中内置装饰器
python
摩羯座-185690305942 小时前
Python数据可视化基础:使用Matplotlib绘制图表
大数据·python·信息可视化·matplotlib
今天也要学习吖2 小时前
谷歌nano banana官方Prompt模板发布,解锁六大图像生成风格
人工智能·学习·ai·prompt·nano banana·谷歌ai
Hello123网站2 小时前
glean-企业级AI搜索和知识发现平台
人工智能·产品运营·ai工具
AKAMAI2 小时前
Queue-it 为数十亿用户增强在线体验
人工智能·云原生·云计算
索迪迈科技2 小时前
INDEMIND亮相2025科技创变者大会,以机器人空间智能技术解锁具身智能新边界
人工智能·机器人·扫地机器人·空间智能·陪伴机器人
栒U2 小时前
一文从零部署vLLM+qwen0.5b(mac本地版,不可以实操GPU单元)
人工智能·macos·vllm