Day27 - 大模型微调,LLaMA搭建

指令微调

SFT:Supervised Fine - Tuning

  • 自我认知
    • self-cognition
    • identity
  • 私有知识 / 具体任务
  • 公共知识

LLaMA-Factory 搭建过程

  1. 下载 LLaMA-Factory 源代码
bash 复制代码
​git clone https://github.com/hiyouga/LLaMA-Factory.git
  1. 安装 LLaMA-Factory 依赖包
bash 复制代码
cd LLaMA-Factory
pip install -e ".[torch,metrics]"
  1. 魔塔社区映射端口(各个平台都不一样)
bash 复制代码
export GRADIO_SERVER_PORT=7860 GRADIO_ROOT_PATH=/${JUPYTER_NAME}/proxy/7860/
  1. 启动 LLaMA-Factory(LLaMA Board 可视化微调)
bash 复制代码
llamafactory-cli webui

点击链接: http://0.0.0.0:7860


如何微调?

如何修改模型的自我认知?

LLaMA-Factory/data/identity.json ,编辑模式打开该文件,修改{{name}}和{{author}},来改变模型的自我认知。

为了避免过拟合,训练的时候需要增加一些公共知识。

微调的核心是要去设计非常好的指令格式 ,指令格式的设计与上层开发是配套的。这个过程可以想象成:后端写接口,前端调接口去渲染数据,前后端得有个接口约定。

我们微调完大模型后,会将其变为API服务,然后用LangChain去调用,LangChain进行Prompt设计开发。

例如,在构建聊天机器人时,可以使用 LangChain 来搭建机器人的架构、整合各种API和服务,同时精心设计 Prompts 来确保机器人能够准确理解和回应用户的提问。通过不断地测试和优化 Prompts,提升对话的质量,使机器人更加智能和自然。

相关推荐
罗小罗同学12 小时前
哈工大团队联合德累斯顿工业大学联合发布医学AI智能体综述,讲述计算病理如何从图像分类任务演变成自主诊段工作流
人工智能·分类·数据挖掘·医学图像处理·医学人工智能·医工交叉·医学ai
wincheshe12 小时前
AI Agent 开发学习 --- 框架开发实践(三)
人工智能·学习
新缸中之脑12 小时前
Autoresearch 代码深度解析
人工智能
love530love12 小时前
OpenClaw 手机直连配置全流程
人工智能·windows·python·智能手机·c#·agent·openclaw
VillanelleS12 小时前
AI工程化之Agent架构
人工智能·架构
余俊晖12 小时前
多模态大模型后训练强化学习训练方法:Shuffle-R1
人工智能·自然语言处理·多模态
黄焖鸡能干四碗12 小时前
网络安全建设实施方案(Word文件参考下载)
大数据·网络·人工智能·安全·web安全·制造
未来之窗软件服务13 小时前
为何模型越强、幻觉越大、工业越弱[AI人工智能(六十二)]—东方仙盟
人工智能·仙盟创梦ide·东方仙盟
云上的云端13 小时前
vLLM-Ascend operator torchvision::nms does not exist 问题解决
人工智能·pytorch·深度学习
szxinmai主板定制专家13 小时前
基于ZYNQ MPSOC船舶数据采集仪器设计(一)总体设计方案,包括振动、压力、温度、流量等参数
arm开发·人工智能·嵌入式硬件·fpga开发