llama-factory

小技工丨14 天前
人工智能·llm·llama·llama-factory
LLaMA-Factory:了解webUI参数选型建议:资源受限优先选择lora,需要最高精度且资源充足用ful,快速适配相似领域用freeze。上面说的full、freeze、lora属于参数更新策略 ,决定微调哪些参数。
小技工丨15 天前
机器学习·大模型·llama·llama-factory
LLaMA-Factory:环境准备注意: RTX 4090 笔记本 GPU 的 16GB VRAM 限制了可运行的模型大小。建议使用 4-bit 或 8-bit 量化模型(如 LLaMA 3.1 8B 或 13B)以适应 VRAM 限制。
太空眼睛20 天前
lora·微调·sft·训练·deepspeed·llama-factory·deepseek
【LLaMA-Factory】使用LoRa微调训练DeepSeek-R1-Distill-Qwen-7B如果不禁用开源驱动,直接安装nvidia-smi,会安装失败,在日志文件/var/log/nvidia-installer.log中会出现以下错误信息 ERROR: Unable to load the kernel module 'nvidia.ko'
Silence4Allen21 天前
人工智能·大模型·微调·llama-factory
大模型微调指南之 LLaMA-Factory 篇:一键启动LLaMA系列模型高效微调LLaMA-Factory 是一个用于训练和微调模型的工具。它支持全参数微调、LoRA 微调、QLoRA 微调、模型评估、模型推理和模型导出等功能。
陈奕昆1 个月前
人工智能·llama·大模型微调·llama-factory
大模型微调之LLaMA-Factory 系列教程大纲环境部署与框架特性Web UI 快速上手命令行深度操作数据格式规范数据清洗与增强数据集注册与验证参数高效微调(PEFT)
Fanxt_Ja1 个月前
人工智能·深度学习·语言模型·自然语言处理·conda·llama-factory·deepseek
LLaMA-Factory部署以及大模型的训练(细节+新手向)经过一段时间的探索,从手动编写训练代码到寻求框架辅助训练,遇到了各种各样的问题。前面我介绍了dify的部署,但是并没有详细介绍使用方式,是因为我在尝试利用dify的时候碰到了很多困难,总结下来首先就是他的环境和端口通信问题比较难以解决,所以我就没有去讲。这几天我又尝试了使用国产的训练框架LLaMa-Factory,发现它更容易上手,环境配置更简单,并且经过尝试已经初步得出的成果,所以这篇文章我会为大家讲解从部署开始如何使用LLaMa-Factory训练自己的大模型的流程
窦再兴2 个月前
开发语言·人工智能·python·llama-factory·llama3.2
CentOS8.5 LLaMA-Factory训练模型注:VMware16 + CentOS8.5 虚拟机尝试,不能实现GPU直通,训练不能成功。需要单独服务器直接安装linux系统。还要查看自己的显卡是否支持CUDA
Silence4Allen2 个月前
ubuntu·vllm·ollama·llama-factory·openwebui·lmdeploy
Ubuntu 22.04 AI大模型环境配置及常用工具安装建议使用 Ubuntu22.04 以下配置皆以 Ubuntu22.04 系统版本为例【建议安装 3.10】(安装miniconda或者conda来管理虚拟环境)
黎明鱼儿2 个月前
数据集·大模型微调·llama-factory
LLaMA-Factory 数据集成从入门到精通LLaMA-Factory 框架通过Alpaca/Sharegpt双格式体系实现多任务适配,其中Alpaca专注结构化指令微调(含SFT/DPO/预训练),Sharegpt支持多角色对话及多模态数据集成。核心配置依托 dataset_info.json 实现数据源映射、格式定义(formatting)、列名绑定(columns)及角色标签(tags)设置,需特别注意多模态路径与文本标记的严格匹配。优先级规则遵循:云端仓库 > 本地脚本 > 文件直读,配置时须规避角色标签冲突和路径验证疏漏等常见误区。
黎明鱼儿2 个月前
人工智能·语言模型·大模型·llama-factory
LLaMA-Factory大模型微调全流程指南该文档为LLaMA-Factory大模型微调提供了完整的技术指导,涵盖了从环境搭建到模型训练、推理和合并模型的全流程,适用于需要进行大模型预训练和微调的技术人员。
窦再兴2 个月前
人工智能·conda·llama-factory
CentOS7 安装 LLaMA-Factory硬盘我配置了80G,内存20G如果下载不了,可以进入github手动下载,然后在传入服务器。也可以去码云搜索后下载
闻道且行之2 个月前
llama·llama-factory
记录| Llama-Factory参数总结最近正在研究大模型微调,经常记不住Llama-Factory的各种参数和各种概念,这里记录下来,方便自己查看。
_Meilinger_3 个月前
大模型·llm·微调·llama·大模型微调·llama-factory·unsloth
大模型微调|使用 LLaMA-Factory 微调 Llama3-8B-Chinese-Chat 完成知识问答任务前言:本篇博客分享如何基于LLaMA-Factory使用现有金融数据集实现LLaMA3的微调,以完成金融领域的知识问答任务。
学不会lostfound3 个月前
lora·深度学习模型·自我认知·llama-factory·sft微调·aigc实战
五、AIGC大模型_04LLaMA-Factory基础知识与SFT实战LLaMA-Factory 是一个开源的大型语言模型(LLM)微调框架,旨在帮助开发者和研究人员轻松地对预训练语言模型进行定制化训练和优化
喝不完一杯咖啡3 个月前
人工智能·llm·sft·llama·llama-factory
【AI时代】可视化训练模型工具LLaMA-Factory安装与使用官方地址:https://github.com/hiyouga/LLaMA-Factory创建虚拟环境
初窺門徑3 个月前
llama·大模型微调·llama-factory
llama-factory部署微调方法(wsl-Ubuntu & Windows)llama-factory项目GitHub地址:GitHub - hiyouga/LLaMA-Factory: Unified Efficient Fine-Tuning of 100+ LLMs & VLMs (ACL 2024)
engchina4 个月前
人工智能·微调·llama·llama-factory
使用LLaMA-Factory对AI进行认知的微调本文将介绍如何使用LLaMA-Factory对AI进行微调,使其具备“忍者”的认知,并认知其是由“富士电视台”开发的。
有小肚子的三眼桥墩4 个月前
人工智能·llama·llama-factory
从零安装 LLaMA-Factory 微调 Qwen 大模型成功及所有的坑2025-1-22老规矩,感谢所有参考文章的作者。少走很多弯路。【1】llama-factory使用教程
engchina4 个月前
llama-factory
如何使 LLaMA-Factory 支持 google/gemma-2-2b-jpn-it 的微调追加,修改 constants.py,