Day27 - 大模型微调,LLaMA搭建

指令微调

SFT:Supervised Fine - Tuning

  • 自我认知
    • self-cognition
    • identity
  • 私有知识 / 具体任务
  • 公共知识

LLaMA-Factory 搭建过程

  1. 下载 LLaMA-Factory 源代码
bash 复制代码
​git clone https://github.com/hiyouga/LLaMA-Factory.git
  1. 安装 LLaMA-Factory 依赖包
bash 复制代码
cd LLaMA-Factory
pip install -e ".[torch,metrics]"
  1. 魔塔社区映射端口(各个平台都不一样)
bash 复制代码
export GRADIO_SERVER_PORT=7860 GRADIO_ROOT_PATH=/${JUPYTER_NAME}/proxy/7860/
  1. 启动 LLaMA-Factory(LLaMA Board 可视化微调)
bash 复制代码
llamafactory-cli webui

点击链接: http://0.0.0.0:7860


如何微调?

如何修改模型的自我认知?

LLaMA-Factory/data/identity.json ,编辑模式打开该文件,修改{{name}}和{{author}},来改变模型的自我认知。

为了避免过拟合,训练的时候需要增加一些公共知识。

微调的核心是要去设计非常好的指令格式 ,指令格式的设计与上层开发是配套的。这个过程可以想象成:后端写接口,前端调接口去渲染数据,前后端得有个接口约定。

我们微调完大模型后,会将其变为API服务,然后用LangChain去调用,LangChain进行Prompt设计开发。

例如,在构建聊天机器人时,可以使用 LangChain 来搭建机器人的架构、整合各种API和服务,同时精心设计 Prompts 来确保机器人能够准确理解和回应用户的提问。通过不断地测试和优化 Prompts,提升对话的质量,使机器人更加智能和自然。

相关推荐
消失在人海中1 小时前
数据分析基础:需要掌握的入门知识
数据库·人工智能·数据分析
西红柿土豆丶1 小时前
基于Flask、Bootstrap及深度学习的水库智能监测分析平台
人工智能·python·深度学习·flask·bootstrap
zylyyyyyy1 小时前
DEEPPOLAR:通过深度学习发明非线性大核极坐标码(2)
人工智能·深度学习·信息与通信·polar码·译码
phoenix@Capricornus1 小时前
MATLAB Deep Learning Toolbox
人工智能·深度学习·matlab
国货崛起1 小时前
刘强东杀入自动驾驶!京东注册“Joyrobotaxi”商标
人工智能·机器学习·自动驾驶
HockerF1 小时前
交叉编译 opencv-4.10
人工智能·opencv·计算机视觉
cainiao0806051 小时前
《大模型微调实战:Llama 3.0全参数优化指南》
llama
nenchoumi31192 小时前
LLM 论文精读(四)LLM Post-Training: A Deep Dive into Reasoning Large Language Models
人工智能·语言模型·自然语言处理
鸿蒙布道师2 小时前
英伟达开源Llama-Nemotron系列模型:14万H100小时训练细节全解析
深度学习·神经网络·opencv·机器学习·自然语言处理·数据挖掘·llama
Qdgr_3 小时前
电厂数据库未来趋势:时序数据库 + AI 驱动的自优化系统
数据库·人工智能·时序数据库