Android 手机上方便的测试各种模型的一个方法那就是配置ollama服务,借助ollama的能力下载不同的模型进行测试。
方法如下:
安装 Termux
可以直接从
https://github.com/termux
上面直接下载
更新和升级包
打开 Termux 并更新其包存储库,以确保您可以访问最新的软件版本:
pkg update
pkg upgrade
安装 Proot-Distro
Proot-Distro 允许您在 Termux 中运行不同的 Linux 发行版。使用以下方法进行安装:
pkg install proot-distro
pd install debian
有关更多详细信息,请访问 Proot-Distro GitHub 页面。
登录到 Linux 发行版
在本教程中,我们将使用 Debian。使用以下命令登录到您的 Debian 环境:
pd login debian
安装 Tmux
Tmux 是一个终端多路复用器,允许您同时运行多个终端会话:
apt update
apt upgrade
apt install tmux
安装 Ollama
在 Debian 环境中,下载并安装 Ollama:
curl -fsSL https://ollama.com/install.sh |SH
此脚本安装 Ollama 及其依赖项。
创建新的 Tmux 会话
启动一个专门用于运行 Ollama 的新 tmux 会话:
tmux new -s llm
运行 Ollama 服务器
在 tmux 会话中,启动 Ollama 服务器:
ollama serve
在 Tmux 中创建新窗格
按 Ctrl+b+" 将当前窗口拆分为两个窗格。
Ctrl+b+"
运行 Ollama 模型
在新窗格中,运行特定的 Ollama 模型。例如,要运行 Gemma 2B 模型:
ollama run qwen2:0.5b
根据您的设备,您还可以运行 phi3:
ollama run phi3
测试模型
模型运行后,您可以直接从终端与其交互。输入提示并观察模型的响应,有效地将您的 Android 设备用作强大的 AI 工具。
你也可以自己编写程序来访问localhost:11434 来调用这个ollama的服务。
相关视频可以参照:
android 手机上使用 ollama 运行小模型