如何本地跑一个AI大模型

已经是2024年了,但貌似AI大模型的热度依旧未减,各种如ChatGPT般的生成式的AI大模型层出不穷,由此而来的还有各种网站、小程序都可以支持AI大模型对话,那么你有没有想过能拥有一个自己的AI大模型?

今天我就来给大家分享一下如何本地跑一个AI大模型,通过简单的安装后即使不需要联网也能使用。其本质就是把训练好的AI模型下载到本地,然后通过特定的客户端调用,从而达到在本地使用AI大模型的效果,话不多说,开始分享。

当然需要先介绍下今天的主角ollama, 它是一个专门用来运行大语言模型的框架,也可以叫做工具,它在官网的介绍也只有一句话"Get up and running with largelanguage models."(开始使用大型语言模型)。

官网地址:ollama.com/

Github开源仓库:github.com/ollama/olla...

下载地址:ollama.com/download

本地运行大模型基本上有4步:

  • 安装ollama
  • 下载模型
  • 运行模型
  • 对接Web客户端

下面我们开始:

(1)下载并安装ollama客户端

下载页面地址:

安装目前所使用的操作系统选择性下载,然后傻瓜式安装就可以了:

(2)安装适用的大模型

我们首先按照提示安装llama2模型,当然Github仓库的README里也有对其他模型的支持,参数数量和模型的大小都有简单的说明。

下面有一个说明,翻译过来就是:

您应该至少有8GB的内存才能运行7B的大模型,16GB内存可用于运行13B的大模型,32GB内存可用于执行33B的大模型。

(3)运行大模型

我们先通过终端问它一个问题:Do you know Go language?

然后它就会以流式的输出形式来回答你,所谓流式,其实就是慢慢悠悠,一个字一个字的回答你,和人说话一样一句一句的讲。

然后我们在试下它的上下文理解能力,和它说:use it to implement Http service。

它直接使用Go语言实现了一个HTTP服务,看来它是有天然的上下文理解能力的。

(4)安装Web客户端

ollama已经帮我们收集了社区中可以当做客户端使用的工具,这里就不做演示了,大家可以安装各个仓库对应的说明文档进行安装和使用!

到这里就结束了,另外给大家一个小提示,本地跑大模型是很消耗电脑CPU和显卡的事情,如果电脑配置比较差的话可能体验会不是很好,并且长时间运行也可能对电脑有一定的影响,大家适度尝试即可~

相关推荐
中杯可乐多加冰25 天前
【AI落地应用实战】Amazon Bedrock Converse API + Amazon Titan构建一个RAG应用(Retrieval-Augmente
人工智能·掘金·金石计划
边中之城1 个月前
如何从0到1开发自己的npm包
掘金·金石计划
中杯可乐多加冰1 个月前
Text to image论文精读PDF-GAN:文本生成图像新度量指标SSD Semantic Similarity Distance
人工智能·掘金·金石计划
Sword991 个月前
Rust 所有权理解与运用
前端·rust·掘金·金石计划
冯志浩1 个月前
Harmony Next - 图形绘制
harmonyos·掘金·金石计划
中杯可乐多加冰2 个月前
【AI落地应用实战】HivisionIDPhotos AI证件照制作实践指南
人工智能·掘金·金石计划
冯志浩2 个月前
Harmony Next - 多线程技术 TaskPool
harmonyos·掘金·金石计划
宇宙之一粟2 个月前
设计快速并发哈希表
后端·rust·掘金·金石计划
宇宙之一粟2 个月前
【译】Go 迭代器的乐趣
后端·go·掘金·金石计划
雨绸缪2 个月前
ABAP 的 “小技巧 ”和 “陷阱 ”以及新语法
后端·代码规范·掘金·金石计划