五一假期Llama 3之魔改不完全攻略(Part 2)

2024年4月18日,Meta AI 正式宣布推出 Llama 3,这标志着开源大型语言模型(LLM)领域的又一重大进步。如同一颗重磅炸弹, Llama 3 以其卓越的性能和广泛的应用前景,预示着 AI 技术的新时代。

目前开源的是Llama3 8B 和 70B,趁着五一小长假,别人在外人从众,我在家偷偷魔改Llama3

一、魔改目标

把原来Meta AI 研发的Llama 3训练成本人自己的大模型,让他拥有对主人我的认知。

二、魔改工具

使用全链路开发工具。

三、开始魔改

1、下载工具Xtuner

bash 复制代码
cd ~
git clone -b v0.1.18 https://github.com/InternLM/XTuner
cd XTuner
pip install -e .

2、准备数据

用python脚本生产训练数据,格式如下:

bash 复制代码
[
    {
        "conversation": [
            {
                "system": "你是一个懂中文的小助手",
                "input": "你是(请用中文回答)",
                "output": "您好,我是Jin's AI,一个由Jin 打造的人工智能助手,请问有什么可以帮助您的吗?"
            }
        ]
    },
    {
        "conversation": [
            {
                "system": "你是一个懂中文的小助手",
                "input": "Who are you(请用中文回答)",
                "output": "您好,我是Jin's AI,一个由Jin 打造的人工智能助手,请问有什么可以帮助您的吗?"
            }
        ]
    }
]

3、开始训练

bash 复制代码
xtuner train configs/assistant/llama3_8b_instruct_qlora_assistant.py --work-dir /root/llama3_pth

4、转换格式

bash 复制代码
xtuner convert pth_to_hf /root/llama3_pth/llama3_8b_instruct_qlora_assistant.py \
  /root/llama3_pth/iter_500.pth \
  /root/llama3_hf_adapter

5、合并Adapter

bash 复制代码
export MKL_SERVICE_FORCE_INTEL=1
xtuner convert merge /root/model/Meta-Llama-3-8B-Instruct \
  /root/llama3_hf_adapter\
  /root/llama3_hf_merged

四、见证奇迹

现在开始教Llama3做人了,哈哈哈,"指鹿为马"

bash 复制代码
streamlit run ~/Llama3-XTuner-CN/tools/internstudio_web_demo.py \
  /root/llama3_hf_merged

魔改前Llama3对自己的认知,"一派胡言"

魔改后小样终于知道自己姓啥名谁了,"态度端正"

相关推荐
大傻^1 小时前
大模型微调-基于llama-factory详解
llama·模型微调
空中楼阁,梦幻泡影4 小时前
主流4 大模型(GPT、LLaMA、DeepSeek、QWE)的训练与推理算力估算实例详细数据
人工智能·gpt·llama
蓝田生玉1238 小时前
LLaMA论文阅读笔记
论文阅读·笔记·llama
木卫二号Coding9 小时前
第七十七篇-V100+llama-cpp-python-server+Qwen3-30B+GGUF
开发语言·python·llama
木卫二号Coding9 小时前
第七十六篇-V100+llama-cpp-python+Qwen3-30B+GGUF
开发语言·python·llama
姚华军1 天前
在本地(Windows环境)部署LLaMa-Factory,进行模型微调步骤!!!
windows·ai·llama·llama-factory
Honmaple1 天前
openclaw使用llama.cpp 本地大模型部署教程
llama
love530love1 天前
Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)
人工智能·windows·大模型·llama·llama.cpp·gguf·cuda 加速
feasibility.2 天前
多模态模型Qwen3-VL在Llama-Factory中断LoRA微调训练+测试+导出+部署全流程--以具身智能数据集open-eqa为例
人工智能·python·大模型·nlp·llama·多模态·具身智能
问道飞鱼2 天前
【大模型知识】Chroma + Ollama + Llama 3.1 搭建本地知识库
llama·知识库·chroma·ollama