llama-factory

窦再兴9 天前
开发语言·人工智能·python·llama-factory·llama3.2
CentOS8.5 LLaMA-Factory训练模型注:VMware16 + CentOS8.5 虚拟机尝试,不能实现GPU直通,训练不能成功。需要单独服务器直接安装linux系统。还要查看自己的显卡是否支持CUDA
Silence4Allen11 天前
ubuntu·vllm·ollama·llama-factory·openwebui·lmdeploy
Ubuntu 22.04 AI大模型环境配置及常用工具安装建议使用 Ubuntu22.04 以下配置皆以 Ubuntu22.04 系统版本为例【建议安装 3.10】(安装miniconda或者conda来管理虚拟环境)
黎明鱼儿14 天前
数据集·大模型微调·llama-factory
LLaMA-Factory 数据集成从入门到精通LLaMA-Factory 框架通过Alpaca/Sharegpt双格式体系实现多任务适配,其中Alpaca专注结构化指令微调(含SFT/DPO/预训练),Sharegpt支持多角色对话及多模态数据集成。核心配置依托 dataset_info.json 实现数据源映射、格式定义(formatting)、列名绑定(columns)及角色标签(tags)设置,需特别注意多模态路径与文本标记的严格匹配。优先级规则遵循:云端仓库 > 本地脚本 > 文件直读,配置时须规避角色标签冲突和路径验证疏漏等常见误区。
黎明鱼儿15 天前
人工智能·语言模型·大模型·llama-factory
LLaMA-Factory大模型微调全流程指南该文档为LLaMA-Factory大模型微调提供了完整的技术指导,涵盖了从环境搭建到模型训练、推理和合并模型的全流程,适用于需要进行大模型预训练和微调的技术人员。
窦再兴16 天前
人工智能·conda·llama-factory
CentOS7 安装 LLaMA-Factory硬盘我配置了80G,内存20G如果下载不了,可以进入github手动下载,然后在传入服务器。也可以去码云搜索后下载
闻道且行之1 个月前
llama·llama-factory
记录| Llama-Factory参数总结最近正在研究大模型微调,经常记不住Llama-Factory的各种参数和各种概念,这里记录下来,方便自己查看。
_Meilinger_1 个月前
大模型·llm·微调·llama·大模型微调·llama-factory·unsloth
大模型微调|使用 LLaMA-Factory 微调 Llama3-8B-Chinese-Chat 完成知识问答任务前言:本篇博客分享如何基于LLaMA-Factory使用现有金融数据集实现LLaMA3的微调,以完成金融领域的知识问答任务。
学不会lostfound2 个月前
lora·深度学习模型·自我认知·llama-factory·sft微调·aigc实战
五、AIGC大模型_04LLaMA-Factory基础知识与SFT实战LLaMA-Factory 是一个开源的大型语言模型(LLM)微调框架,旨在帮助开发者和研究人员轻松地对预训练语言模型进行定制化训练和优化
喝不完一杯咖啡2 个月前
人工智能·llm·sft·llama·llama-factory
【AI时代】可视化训练模型工具LLaMA-Factory安装与使用官方地址:https://github.com/hiyouga/LLaMA-Factory创建虚拟环境
初窺門徑2 个月前
llama·大模型微调·llama-factory
llama-factory部署微调方法(wsl-Ubuntu & Windows)llama-factory项目GitHub地址:GitHub - hiyouga/LLaMA-Factory: Unified Efficient Fine-Tuning of 100+ LLMs & VLMs (ACL 2024)
engchina3 个月前
人工智能·微调·llama·llama-factory
使用LLaMA-Factory对AI进行认知的微调本文将介绍如何使用LLaMA-Factory对AI进行微调,使其具备“忍者”的认知,并认知其是由“富士电视台”开发的。
有小肚子的三眼桥墩3 个月前
人工智能·llama·llama-factory
从零安装 LLaMA-Factory 微调 Qwen 大模型成功及所有的坑2025-1-22老规矩,感谢所有参考文章的作者。少走很多弯路。【1】llama-factory使用教程
engchina3 个月前
llama-factory
如何使 LLaMA-Factory 支持 google/gemma-2-2b-jpn-it 的微调追加,修改 constants.py,
engchina4 个月前
人工智能·微调·llama·llama-factory
本地部署 LLaMA-Factory下载代码,创建虚拟环境,安装 LLaMA-Factory,验证,我机器的输入如下,安装 huggingface_hub,
苍墨穹天4 个月前
deepspeed·llama-factory
LLaMA-Factory 单卡3080*2 deepspeed zero3 微调Qwen2.5-7B-Instruct笔者测试3080*2,1108条数据需要1个小时,bitch_size只能设为2,而且只能Zero3但是也可以微调Qwen2.5-7B-Instruct了
木亦汐丫4 个月前
lora·大模型·微调·chatglm·llama·llama-factory
【大模型系列篇】LLaMA-Factory大模型微调实践 - 从零开始前一次我们使用了NVIDIA TensorRT-LLM 大模型推理框架对智谱chatglm3-6b模型格式进行了转换和量化压缩,并成功部署了推理服务,有兴趣的同学可以翻阅《NVIDIA TensorRT-LLM 大模型推理框架实践》,今天我们来实践如何通过LLaMA-Factory对大模型进行Lora微调。
SpikeKing5 个月前
人工智能·lora·llm·sft·多模态大模型·llama-factory·qwen2-vl
LLM - 使用 LLaMA-Factory 微调大模型 Qwen2-VL SFT(LoRA) 图像数据集 教程 (2)欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/143725947
野指针小李5 个月前
lora·sft·vllm·llama-factory
LLaMA-Factory学习笔记(1)——采用LORA对大模型进行SFT并采用vLLM部署的全流程该博客是我根据自己学习过程中的思考与总结来写作的,由于初次学习,可能会有错误或者不足的地方,望批评与指正。
人工智能培训咨询叶梓6 个月前
人工智能·语言模型·性能优化·llama·调优·大模型微调·llama-factory
使用LLaMA-Factory快速训练自己的专用大模型转自:萤火架构本文聊聊 LLama-Factory,它是一个开源框架,这里头可以找到一系列预制的组件和模板,让你不用从零开始,就能训练出自己的语言模型(微调)。不管是聊天机器人,还是文章生成器,甚至是问答系统,都能搞定。而且,LLama-Factory 还支持多种框架和数据集,这意味着你可以根据项目需求灵活选择,把精力集中在真正重要的事情上——创造价值。