如何本地跑一个AI大模型

已经是2024年了,但貌似AI大模型的热度依旧未减,各种如ChatGPT般的生成式的AI大模型层出不穷,由此而来的还有各种网站、小程序都可以支持AI大模型对话,那么你有没有想过能拥有一个自己的AI大模型?

今天我就来给大家分享一下如何本地跑一个AI大模型,通过简单的安装后即使不需要联网也能使用。其本质就是把训练好的AI模型下载到本地,然后通过特定的客户端调用,从而达到在本地使用AI大模型的效果,话不多说,开始分享。

当然需要先介绍下今天的主角ollama, 它是一个专门用来运行大语言模型的框架,也可以叫做工具,它在官网的介绍也只有一句话"Get up and running with largelanguage models."(开始使用大型语言模型)。

官网地址:ollama.com/

Github开源仓库:github.com/ollama/olla...

下载地址:ollama.com/download

本地运行大模型基本上有4步:

  • 安装ollama
  • 下载模型
  • 运行模型
  • 对接Web客户端

下面我们开始:

(1)下载并安装ollama客户端

下载页面地址:

安装目前所使用的操作系统选择性下载,然后傻瓜式安装就可以了:

(2)安装适用的大模型

我们首先按照提示安装llama2模型,当然Github仓库的README里也有对其他模型的支持,参数数量和模型的大小都有简单的说明。

下面有一个说明,翻译过来就是:

您应该至少有8GB的内存才能运行7B的大模型,16GB内存可用于运行13B的大模型,32GB内存可用于执行33B的大模型。

(3)运行大模型

我们先通过终端问它一个问题:Do you know Go language?

然后它就会以流式的输出形式来回答你,所谓流式,其实就是慢慢悠悠,一个字一个字的回答你,和人说话一样一句一句的讲。

然后我们在试下它的上下文理解能力,和它说:use it to implement Http service。

它直接使用Go语言实现了一个HTTP服务,看来它是有天然的上下文理解能力的。

(4)安装Web客户端

ollama已经帮我们收集了社区中可以当做客户端使用的工具,这里就不做演示了,大家可以安装各个仓库对应的说明文档进行安装和使用!

到这里就结束了,另外给大家一个小提示,本地跑大模型是很消耗电脑CPU和显卡的事情,如果电脑配置比较差的话可能体验会不是很好,并且长时间运行也可能对电脑有一定的影响,大家适度尝试即可~

相关推荐
光影少年16 天前
react打包优化和配置优化都有哪些?
前端·react.js·掘金·金石计划
光影少年18 天前
Promise.all实现其中有一个接口失败其他结果正常返回,如何实现?
前端·promise·掘金·金石计划
光影少年19 天前
react16中的hooks的底层实现原理
前端·react.js·掘金·金石计划
光影少年1 个月前
vite打包优化有哪些
前端·vite·掘金·金石计划
光影少年1 个月前
webpack打包优化
webpack·掘金·金石计划·前端工程化
光影少年1 个月前
Typescript工具类型
前端·typescript·掘金·金石计划
光影少年1 个月前
Promise状态和方法都有哪些,以及实现原理
javascript·promise·掘金·金石计划
光影少年1 个月前
next.js和nuxt与普通csr区别
nuxt.js·掘金·金石计划·next.js
光影少年1 个月前
js异步解决方案以及实现原理
前端·javascript·掘金·金石计划
光影少年1 个月前
前端上传切片优化以及实现
前端·javascript·掘金·金石计划