【AI大语言模型应用】使用Ollama搭建本地大语言模型

【AI大语言模型应用】使用Ollama搭建本地大语言模型

简单介绍什么是Ollama

这玩意儿其实就是一个能够帮你快速启动并运行大语言模型的平台。

你可以类比于Java中的Springboot+maven

这个ollama是用go语言编写的,我对go语言了解不深,所以更细节的平台实现需要各位自行学习。

目前这个ollama支持 windows、linux、macos

下载Ollama

目前主要是两种安装方式:直接安装和docker安装

下面就直接开始了

平台:windows

下载地址:https://ollama.com/download/OllamaSetup.exe

很简单,直接下一步下一步就行。

平台:Linux (CentOS7)

直接命令安装:
curl -fsSL https://ollama.com/install.sh | sh

如果存在安装不了的情况,那就自己手动安装包

根据不同的平台下载压缩包手动安装

amd64https://ollama.com/download/ollama-linux-amd64.tgz

AMD GPU : https://ollama.com/download/ollama-linux-amd64-rocm.tgz

ARM64 : https://ollama.com/download/ollama-linux-arm64.tgz

给ollama创建一个用户和组信息

bash 复制代码
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)

创建一个服务文件/etc/systemd/system/ollama.service

bash 复制代码
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"

[Install]
WantedBy=default.target

然后启动服务

bash 复制代码
sudo systemctl daemon-reload
sudo systemctl enable ollama
平台:macOS

下载地址:https://ollama.com/download/Ollama-darwin.zip

DOCKER安装

根据平台选择下面的方式安装

dockerfile 复制代码
# cpu或者英伟达GPU
docker pull ollama/ollama
# AMD显卡
docker pull ollama/ollama:rocm
# 使用指定版本
# CPU 或 Nvidia GPU 运行
docker pull ollama/ollama:0.3.0
# AMD 显卡运行
docker pull ollama/ollama:0.3.0-rocm

docker运行

bash 复制代码
# 默认 CPU 模式运行
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

# Nvidia GPU 模式运行
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

# AMD 显卡运行
docker run -d --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm

设置ollama的模型下载位置

在系统的环境变量进行设置就好了

windows直接添加系统环境变量:

OLLAMA_HOST = 0.0.0.0

OLLAMA_MODELS = 你的models安装路径

Linux和macOS的自行百度设置环境变量,只需要将上面的这种映射对就行

然后重新启动Ollama

使用Ollama

使用命令 ollama list 查看已经下载了多少模型

下载并运行模型

ollama run qwen:14b

可以下载哪些模型呢?

官方地址:https://ollama.com/library

我这里选择阿里千问模型

选择好版本,并复制右边的命令运行

注意网络要通畅(在pulling的时候,可以开启vpn)

使用模型:

打开终端输入ollama run qwen 即可

使用Ollama提供的API

快速调用

目前你已经有了一个qwen大模型

直接使用ollama提供的API调用即可

请求url

POST http://localhost:11434/api/generate

请求体

{

"model": "qwen2:7b",

"prompt": "你是谁?",

"stream": false

}

响应体

{

"model": "qwen",

"created_at": "2024-09-17T10:22:20.1823352Z",

"response": "我是通义千问,由阿里云开发的人工智能模型。我的主要功能是回答用户的问题、提供信息和帮助解决问题等。如果您有任何问题或需要帮助,请随时告诉我,我会尽力提供支持。",

"total_duration": 3890331300,

"load_duration": 3036409100,

"prompt_eval_count": 11,

"prompt_eval_duration": 65339000,

"eval_count": 46,

"eval_duration": 787166000

}

更多的API,请前往官方API地址:https://github.com/ollama/ollama/blob/main/docs/api.md

至此就完成了整个的Ollama模型的搭建工作

相关推荐
贫民窟的勇敢爷们4 分钟前
腾讯混元 Hy3 Preview:快慢思考融合的实用主义 MoE 模型解析
人工智能
测试员周周4 分钟前
【AI测试功能2】AI功能测试的“不可确定性“难题与应对思路:从精确断言到统计判定的完整方案
大数据·人工智能·python·功能测试·测试工具·单元测试·测试用例
卷卷说风控11 分钟前
【卷卷观察】Redis 之父用 AI 写新数据类型:4个月,我干了以前一年才敢干的事
人工智能·redis·bootstrap
陈天伟教授13 分钟前
假期细节-丁达尔效应-光影的折射
人工智能·科技·开源
网络工程小王15 分钟前
[RAG 与文本向量化详解]RAG篇
数据库·人工智能·redis·机器学习
DogDaoDao16 分钟前
【GitHub】Warp 终端深度解析:Rust + GPU 加速的 AI 原生终端开源架构
人工智能·程序员·rust·开源·github·ai编程·warp
sunneo20 分钟前
专栏D-团队与组织-05-冲突与决策
前端·人工智能·产品运营·aigc·产品经理·ai-native
生成论实验室23 分钟前
《事件关系阴阳博弈动力学:识势应势之道》第十篇:识势应势——从认知到行动的完整闭环
人工智能·算法·架构·创业创新·安全架构
Aision_23 分钟前
为什么 CTI 场景需要知识图谱?
人工智能·python·安全·web安全·langchain·prompt·知识图谱
kalvin_y_liu24 分钟前
RHOS Lab提出 Robot-Human-Object-Scene 四元范式
人工智能·具身数据模型