快速在高通芯片手机&平板本地部署大模型DeepSeek

一、硬件准备

设备:高通芯片的手机或者平板(建议选用骁龙8以上芯片)

内存:大于16G(方便运行更大参数的大模型)

存储:根据不同大小的模型预留足够即可


二、部署教程

说明:本教程使用的设备是8GEN2芯片的手机,部署的模型为deepseek-r1:7b

步骤

1.下载并安装AidLux

在端侧AI开发者社区处(forum.aidlux.com/t/topic/719...) 点击下载AidLux软件,安装后注册使用避免闪退,如果想常驻后台可以在社区搜索相关文章。

2.远程登录AidLux进行配置

打开AidLux点击桌面的Cloud_ip应用(云朵形状icon),查看ip地址,并且在浏览器中输入该ip地址。 (Tips:手机或平板要与你的电脑连接同一个wifi)

连接成功后出现登陆页面,默认账号:aidlux ;默认密码:aidlux

登录后打开终端:

进入命令行界面:

现在准备工作已经做好了,接下来下载大模型。

3、下载ollama进行配置

下载ollama,默认sudo密码aidlux;

命令行依次输入下面命令:

bash 复制代码
curl -fsSL https://ollama.com/install.sh | sh
ollama  serve &
#让ollama服务在后台运行
ollama -v
#安装完毕可以查看ollama版本进行验证,出现版本号之后就可以使用ollama

下载过程:

4、下载并运行deepseek模型

输入命令:

复制代码
ollama pull deepseek-r1:7b
ollama list

下载完成后可以查看已下载模型
Tips:可根据手机/平板配置,自行选择下载3b/7b等参数模型。

运行模型

输入命令:

arduino 复制代码
ollama run deepseek-r1:7b

出现>>>即可开始提问了

相关推荐
踢球的打工仔18 小时前
PHP面向对象(7)
android·开发语言·php
安卓理事人18 小时前
安卓socket
android
t1987512820 小时前
在Ubuntu 22.04系统上安装libimobiledevice
linux·运维·ubuntu
skywalk816320 小时前
linux安装Code Server 以便Comate IDE和CodeBuddy等都可以远程连上来
linux·运维·服务器·vscode·comate
晚风吹人醒.21 小时前
缓存中间件Redis安装及功能演示、企业案例
linux·数据库·redis·ubuntu·缓存·中间件
Hard but lovely21 小时前
linux: pthread库的使用和理解
linux
这儿有一堆花1 天前
Kali Linux:探测存活到挖掘漏洞
linux·运维·服务器
松涛和鸣1 天前
从零开始理解 C 语言函数指针与回调机制
linux·c语言·开发语言·嵌入式硬件·排序算法
安卓理事人1 天前
安卓LinkedBlockingQueue消息队列
android
皮小白1 天前
ubuntu开机检查磁盘失败进入应急模式如何修复
linux·运维·ubuntu