纯离线部署本地知识库LLM大模型

纯离线部署本地知识库LLM大模型

一、下载离线大模型

下载的网址:https://hf-mirror.com/

deepseek qwen 相关的模型,只建议使用1.5B的,GGUF后缀的模型
推荐下载llama相关模型,同样是GGUF后缀的,自己笔记本电脑推荐下载8B的	

二、下载大模型管理平台 LM Studio

下载网址:https://lmstudio.ai/

安装过程只需要修改一个安装路径,后面一直下一步安装成功。

三、将离线大模型导入到 LM Studio 中

注意:默认情况下,LM Studio 所识别的大模型的目录在C盘

默认路径:C:\Users\用户名\.lmstudio\models

修改大模型的加载目录

  • 先创建一个根目录 ,例如:F:\LMStudioModels
  • 再创建一个二级目录,例如:F:\LMStudioModels\shujia_models 【必须要有一个二级目录】
  • 将模型除.gguf意外的名字拷贝出来,当作一个文件夹的名字
  • 将该模型放在这个文件夹里面

上面操作做完后,LM Studio就可以读取到我们的大模型。

四、通过LM Studio加载我们的大模型【重要,涉及GPU的能力】

  • 点击对话正上方的select a model to load ,选择该对象要使用的大模型
  • 参数解释:
    • Context Length: 该模型一次最大可以加载多少个token
      • 若是简单的问答,推荐4096
      • 若是小红书文案,推荐10000以上
      • 若是写作文,小说,推荐100000左右
    • GPU Offload: 运行时,所占用的GPU显存,建议先给一半
    • CPU Thread Pool Size: 拉满
    • Evaluation Batch Size: 512
    • 后面不动,都以推荐为准

五、调整参数,进行对话

点击右上角实验室器皿图标,show settings,设置Preset,例如添加一个:数学家

理解为:将当前对话的大模型设置成一个固定的角色

设置System Prompt,形容一下这个数学家

六、使用AnythingLLM工具使用LM Studio中的模型,加载知识库

  • 将LM Studio作为一个服务对外提供,让AnythingLLM连接上LM Studio
    • 打开LM Studio点击左边的Developer
    • 打开 Start Server按钮
  • 再AnythingLLM中,点击聊天设置,配置LM Studio,选择,模型

七、提供API服务

  • 在AnythingLLM中左下角点击open settings
  • 点击工具
  • 点击API密钥,生成密钥