android手机上使用ollama快速验证大模型

Android 手机上方便的测试各种模型的一个方法那就是配置ollama服务,借助ollama的能力下载不同的模型进行测试。

方法如下:

安装 Termux

可以直接从

复制代码
https://github.com/termux

上面直接下载

更新和升级包

打开 Termux 并更新其包存储库,以确保您可以访问最新的软件版本:

复制代码
pkg update
pkg upgrade
安装 Proot-Distro

Proot-Distro 允许您在 Termux 中运行不同的 Linux 发行版。使用以下方法进行安装:

复制代码
pkg install proot-distro

pd install debian

有关更多详细信息,请访问 Proot-Distro GitHub 页面。

登录到 Linux 发行版

在本教程中,我们将使用 Debian。使用以下命令登录到您的 Debian 环境:

复制代码
pd login debian
安装 Tmux

Tmux 是一个终端多路复用器,允许您同时运行多个终端会话:

复制代码
apt update
apt upgrade
apt install tmux 
安装 Ollama

在 Debian 环境中,下载并安装 Ollama:

复制代码
curl -fsSL https://ollama.com/install.sh |SH

此脚本安装 Ollama 及其依赖项。

创建新的 Tmux 会话

启动一个专门用于运行 Ollama 的新 tmux 会话:

复制代码
tmux new -s llm
运行 Ollama 服务器

在 tmux 会话中,启动 Ollama 服务器:

复制代码
ollama serve
在 Tmux 中创建新窗格

按 Ctrl+b+" 将当前窗口拆分为两个窗格。

复制代码
Ctrl+b+" 
运行 Ollama 模型

在新窗格中,运行特定的 Ollama 模型。例如,要运行 Gemma 2B 模型:

复制代码
ollama run qwen2:0.5b

根据您的设备,您还可以运行 phi3:

复制代码
ollama run phi3
测试模型

模型运行后,您可以直接从终端与其交互。输入提示并观察模型的响应,有效地将您的 Android 设备用作强大的 AI 工具。

你也可以自己编写程序来访问localhost:11434 来调用这个ollama的服务。

相关视频可以参照:

android 手机上使用 ollama 运行小模型

相关推荐
DianSan_ERP34 分钟前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
在人间耕耘1 小时前
HarmonyOS Vision Kit 视觉AI实战:把官方 Demo 改造成一套能长期复用的组件库
人工智能·深度学习·harmonyos
够快云库1 小时前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
Eloudy1 小时前
CHI 开发备忘 08 记 -- CHI spec 08
人工智能·arch·hpc
homelook1 小时前
Transformer与电池管理系统(BMS)的结合是当前 智能电池管理 的前沿研究方向
人工智能·深度学习·transformer
ZPC82101 小时前
docker 镜像备份
人工智能·算法·fpga开发·机器人
ZPC82101 小时前
docker 使用GUI ROS2
人工智能·算法·fpga开发·机器人
ssshooter1 小时前
免费和付费 AI API 选择指南
人工智能·aigc·openai
掘金酱1 小时前
「寻找年味」 沸点活动|获奖名单公示🎊
前端·人工智能·后端