android手机上使用ollama快速验证大模型

Android 手机上方便的测试各种模型的一个方法那就是配置ollama服务,借助ollama的能力下载不同的模型进行测试。

方法如下:

安装 Termux

可以直接从

复制代码
https://github.com/termux

上面直接下载

更新和升级包

打开 Termux 并更新其包存储库,以确保您可以访问最新的软件版本:

复制代码
pkg update
pkg upgrade
安装 Proot-Distro

Proot-Distro 允许您在 Termux 中运行不同的 Linux 发行版。使用以下方法进行安装:

复制代码
pkg install proot-distro

pd install debian

有关更多详细信息,请访问 Proot-Distro GitHub 页面。

登录到 Linux 发行版

在本教程中,我们将使用 Debian。使用以下命令登录到您的 Debian 环境:

复制代码
pd login debian
安装 Tmux

Tmux 是一个终端多路复用器,允许您同时运行多个终端会话:

复制代码
apt update
apt upgrade
apt install tmux 
安装 Ollama

在 Debian 环境中,下载并安装 Ollama:

复制代码
curl -fsSL https://ollama.com/install.sh |SH

此脚本安装 Ollama 及其依赖项。

创建新的 Tmux 会话

启动一个专门用于运行 Ollama 的新 tmux 会话:

复制代码
tmux new -s llm
运行 Ollama 服务器

在 tmux 会话中,启动 Ollama 服务器:

复制代码
ollama serve
在 Tmux 中创建新窗格

按 Ctrl+b+" 将当前窗口拆分为两个窗格。

复制代码
Ctrl+b+" 
运行 Ollama 模型

在新窗格中,运行特定的 Ollama 模型。例如,要运行 Gemma 2B 模型:

复制代码
ollama run qwen2:0.5b

根据您的设备,您还可以运行 phi3:

复制代码
ollama run phi3
测试模型

模型运行后,您可以直接从终端与其交互。输入提示并观察模型的响应,有效地将您的 Android 设备用作强大的 AI 工具。

你也可以自己编写程序来访问localhost:11434 来调用这个ollama的服务。

相关视频可以参照:

android 手机上使用 ollama 运行小模型

相关推荐
YuanDaima204813 小时前
WSL2 与 Ubuntu 22.04 基础环境部署指南
linux·运维·服务器·人工智能·ubuntu·docker
初心未改HD13 小时前
机器学习之决策树详解
人工智能·决策树·机器学习
GitFun13 小时前
7.4 万 Star 的开源记忆系统,让 AI 编程助手不再“失忆
人工智能
数据门徒13 小时前
神经网络原理 第七章:委员会机器
人工智能·神经网络·机器学习
HyperAI超神经13 小时前
Token使用量降低30%,以「阿凡达」为灵感的异构智能体框架Eywa,高效结合语言模型与领域专用基础模型
人工智能·语言模型
xiaoxiaoxiaolll13 小时前
《Nature Communications》论文解读:皮秒级单光子偏振测量如何绘制多模光纤中的模态动态图谱
网络·人工智能
Inhand陈工13 小时前
城投公司地面与停车场监控改造实战:映翰通IR302 + GRE隧道实现RFID与视频数据远程汇聚
网络·人工智能·物联网·网络安全·智能路由器·信息与通信
速易达网络13 小时前
YOLO26为AI而生
人工智能·机器学习
扬帆破浪13 小时前
免费开源AI软件.桌面单机版,可移动的AI知识库,察元 AI桌面版:本地离线知识库的folder-sync 第一次把文件夹挂成知识库
人工智能·知识图谱
夜影风13 小时前
给AI装上记忆系统:AI记忆机制与上下文管理实战
人工智能·langchain·ai记忆系统