android手机上使用ollama快速验证大模型

Android 手机上方便的测试各种模型的一个方法那就是配置ollama服务,借助ollama的能力下载不同的模型进行测试。

方法如下:

安装 Termux

可以直接从

复制代码
https://github.com/termux

上面直接下载

更新和升级包

打开 Termux 并更新其包存储库,以确保您可以访问最新的软件版本:

复制代码
pkg update
pkg upgrade
安装 Proot-Distro

Proot-Distro 允许您在 Termux 中运行不同的 Linux 发行版。使用以下方法进行安装:

复制代码
pkg install proot-distro

pd install debian

有关更多详细信息,请访问 Proot-Distro GitHub 页面。

登录到 Linux 发行版

在本教程中,我们将使用 Debian。使用以下命令登录到您的 Debian 环境:

复制代码
pd login debian
安装 Tmux

Tmux 是一个终端多路复用器,允许您同时运行多个终端会话:

复制代码
apt update
apt upgrade
apt install tmux 
安装 Ollama

在 Debian 环境中,下载并安装 Ollama:

复制代码
curl -fsSL https://ollama.com/install.sh |SH

此脚本安装 Ollama 及其依赖项。

创建新的 Tmux 会话

启动一个专门用于运行 Ollama 的新 tmux 会话:

复制代码
tmux new -s llm
运行 Ollama 服务器

在 tmux 会话中,启动 Ollama 服务器:

复制代码
ollama serve
在 Tmux 中创建新窗格

按 Ctrl+b+" 将当前窗口拆分为两个窗格。

复制代码
Ctrl+b+" 
运行 Ollama 模型

在新窗格中,运行特定的 Ollama 模型。例如,要运行 Gemma 2B 模型:

复制代码
ollama run qwen2:0.5b

根据您的设备,您还可以运行 phi3:

复制代码
ollama run phi3
测试模型

模型运行后,您可以直接从终端与其交互。输入提示并观察模型的响应,有效地将您的 Android 设备用作强大的 AI 工具。

你也可以自己编写程序来访问localhost:11434 来调用这个ollama的服务。

相关视频可以参照:

android 手机上使用 ollama 运行小模型

相关推荐
大强同学6 分钟前
Warp终端安装与设置
人工智能
码途漫谈16 分钟前
Easy-Vibe高级开发篇阅读笔记(二十一)——AI能力强化之RAG 与企业级智能客服
人工智能·笔记·ai·开源·ai编程
薛定猫AI18 分钟前
【深度解析】Hermes Agent:持久记忆、自学习闭环与桌面化 Autonomous AI 工作流实践
人工智能·学习
Resistance丶未来23 分钟前
Sub2API:订阅转API网关平台,魔芋AI接入指南
人工智能·gpt·大模型·claude·gemini·skill·sub2api
独隅31 分钟前
用 Anaconda 驯服 AI 开发流:从数据预处理到模型部署的全链路环境标准化实战指南
人工智能·neo4j
zhangfeng113339 分钟前
超算中心海光异构卡dcu bw 64G显卡报错 nccl通讯错误,无法通过设置来解决的办法,需要安装shca IB卡驱动
人工智能
m0_7372469840 分钟前
QDKT2-1. Dify 本地部署 & 模型插件配置
人工智能·产品经理
nix.gnehc41 分钟前
手搓 MCP 服务:从零实现 Model Context Protocol 的实践记录
人工智能·mcp·http+sse
wuxinyan1231 小时前
大模型学习之路010:RAG 零基础入门教程(第六篇):重排序技术
人工智能·学习·rag