android手机上使用ollama快速验证大模型

Android 手机上方便的测试各种模型的一个方法那就是配置ollama服务,借助ollama的能力下载不同的模型进行测试。

方法如下:

安装 Termux

可以直接从

复制代码
https://github.com/termux

上面直接下载

更新和升级包

打开 Termux 并更新其包存储库,以确保您可以访问最新的软件版本:

复制代码
pkg update
pkg upgrade
安装 Proot-Distro

Proot-Distro 允许您在 Termux 中运行不同的 Linux 发行版。使用以下方法进行安装:

复制代码
pkg install proot-distro

pd install debian

有关更多详细信息,请访问 Proot-Distro GitHub 页面。

登录到 Linux 发行版

在本教程中,我们将使用 Debian。使用以下命令登录到您的 Debian 环境:

复制代码
pd login debian
安装 Tmux

Tmux 是一个终端多路复用器,允许您同时运行多个终端会话:

复制代码
apt update
apt upgrade
apt install tmux 
安装 Ollama

在 Debian 环境中,下载并安装 Ollama:

复制代码
curl -fsSL https://ollama.com/install.sh |SH

此脚本安装 Ollama 及其依赖项。

创建新的 Tmux 会话

启动一个专门用于运行 Ollama 的新 tmux 会话:

复制代码
tmux new -s llm
运行 Ollama 服务器

在 tmux 会话中,启动 Ollama 服务器:

复制代码
ollama serve
在 Tmux 中创建新窗格

按 Ctrl+b+" 将当前窗口拆分为两个窗格。

复制代码
Ctrl+b+" 
运行 Ollama 模型

在新窗格中,运行特定的 Ollama 模型。例如,要运行 Gemma 2B 模型:

复制代码
ollama run qwen2:0.5b

根据您的设备,您还可以运行 phi3:

复制代码
ollama run phi3
测试模型

模型运行后,您可以直接从终端与其交互。输入提示并观察模型的响应,有效地将您的 Android 设备用作强大的 AI 工具。

你也可以自己编写程序来访问localhost:11434 来调用这个ollama的服务。

相关视频可以参照:

android 手机上使用 ollama 运行小模型

相关推荐
laplace0123几秒前
Kv cache
人工智能·agent·claude·rag·skills
Maynor996几秒前
OpenClaw 中转站配置完全指南
linux·运维·服务器·人工智能·飞书
Eric2238 分钟前
CLI-Agent-Manager:面向 Vibe Coding 的多 Agent 统一管理面板
人工智能·后端·开源
如若12312 分钟前
SoftGroup训练FORinstance森林点云数据集——从零到AP=0.506完整复现
人工智能·python·深度学习·神经网络·计算机视觉
InternLM14 分钟前
LMDeploy重磅更新:从支撑模型到被模型反哺,推理引擎迈入协同进化时代!
人工智能·大模型·多模态大模型·大模型推理·书生大模型
AI周红伟14 分钟前
周红伟老师《企业级 RAG+Agent+Skills+OpenClaw 智能体实战内训》的完整课程大纲(5 天 / 40 小时)
人工智能
hit56实验室29 分钟前
【易经系列】《蒙卦》六五:童蒙,吉。
人工智能
AI浩30 分钟前
VISION KAN:基于Kan的无注意力视觉骨干网络
人工智能·目标检测
China_Yanhy30 分钟前
转型AI运维工程师·Day 10:拥抱“不确定性” —— 断点续训与 Spot 实例抢占
运维·人工智能·python
木昆子31 分钟前
实战A2UI:从JSON到像素——深入Lit渲染引擎
前端·人工智能