android手机上使用ollama快速验证大模型

Android 手机上方便的测试各种模型的一个方法那就是配置ollama服务,借助ollama的能力下载不同的模型进行测试。

方法如下:

安装 Termux

可以直接从

复制代码
https://github.com/termux

上面直接下载

更新和升级包

打开 Termux 并更新其包存储库,以确保您可以访问最新的软件版本:

复制代码
pkg update
pkg upgrade
安装 Proot-Distro

Proot-Distro 允许您在 Termux 中运行不同的 Linux 发行版。使用以下方法进行安装:

复制代码
pkg install proot-distro

pd install debian

有关更多详细信息,请访问 Proot-Distro GitHub 页面。

登录到 Linux 发行版

在本教程中,我们将使用 Debian。使用以下命令登录到您的 Debian 环境:

复制代码
pd login debian
安装 Tmux

Tmux 是一个终端多路复用器,允许您同时运行多个终端会话:

复制代码
apt update
apt upgrade
apt install tmux 
安装 Ollama

在 Debian 环境中,下载并安装 Ollama:

复制代码
curl -fsSL https://ollama.com/install.sh |SH

此脚本安装 Ollama 及其依赖项。

创建新的 Tmux 会话

启动一个专门用于运行 Ollama 的新 tmux 会话:

复制代码
tmux new -s llm
运行 Ollama 服务器

在 tmux 会话中,启动 Ollama 服务器:

复制代码
ollama serve
在 Tmux 中创建新窗格

按 Ctrl+b+" 将当前窗口拆分为两个窗格。

复制代码
Ctrl+b+" 
运行 Ollama 模型

在新窗格中,运行特定的 Ollama 模型。例如,要运行 Gemma 2B 模型:

复制代码
ollama run qwen2:0.5b

根据您的设备,您还可以运行 phi3:

复制代码
ollama run phi3
测试模型

模型运行后,您可以直接从终端与其交互。输入提示并观察模型的响应,有效地将您的 Android 设备用作强大的 AI 工具。

你也可以自己编写程序来访问localhost:11434 来调用这个ollama的服务。

相关视频可以参照:

android 手机上使用 ollama 运行小模型

相关推荐
陈广亮2 分钟前
OpenClaw 入门实战:5分钟搭建你的自托管 AI 助手
人工智能
琅琊榜首20202 分钟前
AI+Python实操指南:用编程赋能高质量网络小说创作
开发语言·人工智能·python
JinchuanMaster7 分钟前
Ubuntu20.04安装50系显卡驱动[不黑屏版本]
linux·人工智能·深度学习·ubuntu·机器学习·机器人·gpu算力
草莓熊Lotso10 分钟前
Linux 程序地址空间深度解析:虚拟地址背后的真相
java·linux·运维·服务器·开发语言·c++·人工智能
Baihai_IDP13 分钟前
Prompt caching 技术是如何实现 1 折的推理成本优化的?
人工智能·面试·llm
山东布谷网络科技21 分钟前
对标Yalla和Chamet:海外直播语聊APP中多人派对房的关键技术细节
java·开发语言·人工智能·php·语音识别·软件需求·海外电商系统开发
爱吃rabbit的mq21 分钟前
第27章:模型部署:从训练到生产
人工智能·ai·语言模型
智能汽车人21 分钟前
自动驾驶---无地图导航
人工智能·机器学习·自动驾驶
feasibility.26 分钟前
基于Qwen3-VL多模态嵌入/重排序模型+Dify(docker)工作流的电商图文检索系统
人工智能·docker·多模态·教育电商·dify·rag·智能体/工作流
软件算法开发27 分钟前
基于莱维飞行和混沌映射PSO优化的LSTM网络模型的一维时间序列预测matlab仿真
人工智能·matlab·lstm·时间序列预测·混沌-莱维pso优化