技术栈
a770
穷人小水滴
4 个月前
人工智能
·
llama
·
llama.cpp
·
a770
·
vulkan
·
gnu/linux
·
sycl
(章节 3.1) 本地运行 AI 有多慢 ? 大模型推理测速 (llama.cpp, Intel GPU A770)
由于本文太长, 分开发布, 方便阅读.在 4 号 PC (物理机) 上运行. 版本:运行模型 llama2-7B.q4, 生成长度 100:
穷人小水滴
4 个月前
ai
·
gpu
·
intel
·
llama.cpp
·
a770
·
vulkan
·
sycl
编译运行 llama.cpp (vulkan, Intel GPU SYCL)
llama.cpp 是一个运行 AI (神经网络) 语言大模型的推理程序, 支持多种 后端 (backend), 也就是不同的具体的运行方式, 比如 CPU 运行, GPU 运行等.
Alascanfu
9 个月前
人工智能
·
pytorch
·
深度学习
·
ai
·
a770
✅ Windows11 系统 I 卡独显 A770 安装 深度学习 Pytorch 环境
这里非常感谢知乎上的 ‘丢丢’ 的[**Windows系统下英特尔独显+Pytorch的历程**] 为我提供了一开始的 I 卡安装想法!但是文中并未介绍如何进行额外的环境变量操作问题,导致很多软件直接安装至系统盘,占用系统盘空间(本文采取非系统盘安装外加系统环境变量配置方式进行安装),同时解决大部分人常见问题。