Intel笔记本也能部署大模型(利用Ultra系列gpu通过优化版ollama实现)

很多小伙伴是不是也想尝试一下用自己的笔记本私有化部署一个大模型,百度上搜了一些教程,发现ollama是最省事的,然后一顿操作,确实可以了,但是很慢,而且发现如下图所示,为什么这个NPU和GPU都没有用,其实是版本装错了, Ollama 默认配置没有启用你的 Intel Arc GPU 和 NPU,加上模型 / 系统适配问题导致资源没利用起来,今天教大家怎么充分利用GPU。

文章目录

  • [1.下载Ollama 英特尔优化版](#1.下载Ollama 英特尔优化版)
  • [2. 运行ollama](#2. 运行ollama)
  • [3. 下载大模型](#3. 下载大模型)
  • [4. 测试效果](#4. 测试效果)

1.下载Ollama 英特尔优化版

下载 Ollama 英特尔 Windows 优化版。

然后,将 zip 文件解压到一个文件夹中。

2. 运行ollama

打开刚才解压后的文件夹,在文件夹上面的路径中输入cmd,然后敲回车,就会出现一个cmd命令行目录。

在命令提示符中运行 start-ollama.bat 即可启动 Ollama Serve。随后会弹出一个窗口,如下所示

3. 下载大模型

在ollama官网中找到要下载的网站,最大显存可以对标自己笔记本内存*0.8。

模型网站:https://ollama.com/search

目前来看推荐qwen3,点开之后选择对应的版本,这里可以先下载一个4b的看看效果,如下图所示

接下来通过在相同的命令提示符(非弹出的窗口)中运行 ollama run qwen3:4b(可以将当前模型替换为你需要的模型),即可在 Intel GPUs 上使用 Ollama 运行 LLMs:

4. 测试效果

安装完大模型之后,可以随便问一个问题,这时候可以看到,GPU已经100%了,说明已经不是单纯靠cpu了,一定充分利用intel自带的GPU了。

相关推荐
与遨游于天地19 小时前
AI在符号集中寻找规律,其推理基于人类对符号逻辑图谱的补充,无法主动观察客观世界的真实数据
人工智能
小仙女的小稀罕19 小时前
记者采访内容整理,录音自动提取任务实用工具指南
人工智能·自然语言处理
Joseph Cooper19 小时前
AI Agent 框架选型:LangChain、LlamaIndex、Anthropic SDK 和 Codex/Claude Code 怎么选
人工智能·langchain·llamaindex·claudecode·anthropic sdk·codex sdk
falldeep19 小时前
五分钟了解OpenClaw底层架构
人工智能·算法·机器学习·架构
FserSuN19 小时前
Machine Learning Specialization - Week 1, 1-8学习总结
人工智能·学习·机器学习
波动几何19 小时前
C2C本地生活服务平台十大功能集群技能体系技能c2c-platform-skill-system
人工智能
Agent产品评测局19 小时前
流程型制造业生产节拍智能调整,落地方法与案例 | 2026工业AI Agent架构全景解析
人工智能·ai·chatgpt·架构
weixin_4462608519 小时前
模型能力深度对决:GPT-4o、Claude 3.5和DeepSeek V系列模型的横向评测与未来趋势洞察
人工智能·算法·机器学习
Joseph Cooper19 小时前
AI 多智能体系统落地:从上下文边界到 A2A 与 Harness 设计
人工智能·ai·agent·多智能体·multi-agent·a2a·harness
2601_9583205719 小时前
【小白零基础上手 】钉钉内部机器人接入 OpenClaw 完整流程讲解(含安装包)
人工智能·windows·机器人·钉钉·open claw·open claw安装