GitHub 知名博主 hiyouga 及其明星项目 LlamaFactory项目介绍 详细介绍

项目背景与研究目标

项目背景与研究目标

在人工智能技术快速发展的今天,开源社区已成为推动大模型技术进步的重要力量。GitHub 作为全球最大的开源代码托管平台,汇聚了众多优秀的开发者和项目。本研究聚焦于 GitHub 知名博主 hiyouga 及其明星项目 LlamaFactory,旨在全面了解该博主的技术影响力,并深入分析其核心项目的技术价值。

hiyouga 作为 GitHub 上活跃的 AI 开发者,其开源项目 LlamaFactory 在短短时间内获得了超过6 万颗星标 (43),成为大模型微调领域最受欢迎的工具之一。本研究将从两个核心维度展开:一是验证 hiyouga 在 B 站是否存在对应账号,以了解其在不同技术社区的活跃度;二是全面深入分析 LlamaFactory 项目的技术架构、发展状况和社区表现,为相关技术研究和应用提供参考。

一、GitHub 博主 hiyouga 身份验证与跨平台关联分析

1.1 GitHub 账号基础信息

hiyouga 的 GitHub 账号显示其真实姓名为郑耀威 (Yaowei Zheng),目前在北京航空航天大学计算机系攻读博士学位(26)。其个人简介中使用了 "咕咕咕" 这一网络用语,暗示其可能是一个 "鸽王"(经常延期更新的博主),而 "No code All live" 的描述则体现了其对零代码或低代码开发的推崇。

从其 GitHub 主页可以看到,hiyouga 关联了两个重要的社交账号:

在 Hugging Face 账号页面上,除了上述两个账号外,还显示了 GitHub 链接,但未发现 B 站账号信息

1.2 B 站账号搜索验证

为了确认 hiyouga 是否在 B 站拥有账号,我们进行了多维度搜索验证:

直接搜索 GitHub 用户名:使用 "hiyouga" 作为关键词在 B 站搜索,未发现匹配的 UP 主账号。

搜索真实姓名 :使用 "郑耀威" 和 "Yaowei Zheng" 进行搜索,同样未找到明确关联的 B 站账号。值得注意的是,搜索结果中出现了一位同名的日本虚拟主播 "天曰ひよ"(Amai Hiyo),但这与我们要找的 AI 开发者 hiyouga 无关(35)

搜索项目名称 :尝试搜索 "LlamaFactory" 和 "LLaMA Factory",发现了多个相关的教学视频,但视频作者均非 hiyouga 本人。例如,在 CSDN 博客中提到的一个 B 站视频链接(https://www.bilibili.com/video/BV1djgRzxEts),标题为 "爆肝之作大模型微调全攻略:从数据集构建到模型部署,LLaMA Factory 保姆级教程!",但该视频作者并非 hiyouga(19)

交叉验证分析

  • 从 hiyouga 的 GitHub 和 Hugging Face 个人资料来看,他仅公开了 Twitter 和 Hugging Face 账号,未提及 B 站账号

  • 多个关于 LlamaFactory 的技术文章和教程都提到了 B 站视频,但视频作者均为其他技术博主,而非 hiyouga 本人(19)

  • 在 GOBI 2025 等技术大会的介绍中,也仅提到其 GitHub、Twitter 和 Hugging Face 账号(26)

基于以上搜索结果,可以得出结论:hiyouga 在 B 站没有公开的官方账号。这可能是因为他更专注于 GitHub 和 Hugging Face 等技术社区,或者选择了其他平台进行内容创作。

1.3 技术社区活跃度评估

虽然 hiyouga 没有 B 站账号,但其在其他技术社区表现极为活跃:

GitHub 贡献

  • 拥有多个高星项目,其中 LlamaFactory 超过 6 万星标(43)

  • EasyR1 项目在短时间内获得 1.8K 星标(64)

  • 参与了多个知名项目的开发,包括 transformers、peft、vllm 等的 fork 版本

Hugging Face 平台

  • 发布了 10 个模型和 6 个数据集

  • 其中包括 hiyouga/Qwen2-VL-7B-Pokemon、hiyouga/Yi-Agent-6B 等特色模型

  • 积极参与社区活动,发布技术文章和项目更新

学术影响力

  • 作为第一作者或合著者发表了 7 篇学术论文

  • 论文涵盖大模型训练、优化算法等前沿领域

  • 参与了 ACL 2024 等顶级会议的论文发表

二、LlamaFactory 项目深度研究

2.1 项目概述与技术架构

LlamaFactory 是一个统一高效的大语言模型微调框架,其核心目标是让 100 多种 LLM 和 VLM(视觉语言模型)的微调变得简单易用。该项目采用了精心设计的分层架构,具有高度的模块化和可扩展性。

项目架构设计

LlamaFactory 采用了创新的五层架构设计 (49)

  1. 模型层(Model Layer):作为 "兼容并蓄的车库",支持 100 多种主流模型架构

  2. 数据层(Data Layer):统一的数据处理管道,支持 50 多种数据集格式

  3. 训练层(Trainer Layer):整合多种高效微调方法,包括全参数微调、冻结微调、LoRA 和 QLoRA

  4. 推理层(Inference Layer):集成 vLLM、SGLang 等高性能推理引擎

  5. 监控层(Monitoring Layer):支持 LlamaBoard、TensorBoard、Wandb、MLflow、SwanLab 等多种监控工具

技术栈与创新

LlamaFactory 的技术创新体现在多个方面:

支持的模型种类极其丰富:

  • 主流大模型:LLaMA 系列、DeepSeek 系列、Gemma 系列、GLM 系列、Qwen 系列等

  • 混合专家模型:Mixtral 8x7B

  • 视觉语言模型:LLaVA、Qwen3-VL、MiniCPM-V 等

  • 最新模型:Llama 4、Qwen2.5 Omni、Gemma 3、DeepSeek-R1 等

集成的微调方法全面多样:

  • 预训练和增量预训练

  • 监督微调(SFT)

  • 奖励模型训练(RM)

  • 强化学习(PPO)

  • 直接偏好优化(DPO)

  • 知识蒸馏(KTO)

  • 在线强化学习(ORPO)

  • 对称偏好优化(SimPO)

支持的量化技术领先业界:

  • 16 位全参数微调

  • LoRA 微调

  • 基于多种技术的 QLoRA:AQLM、AWQ、GPTQ、LLM.int8、HQQ、EETQ

  • 支持 2/3/4/5/6/8 位量化

性能优化技术效果显著:

  • FlashAttention-2:提升训练速度

  • Unsloth :相比 FlashAttention-2 提供 117% 的训练速度提升和 50% 的显存节约(58)

  • Liger Kernel:重写 Transformer 关键操作,显存增长速率从每 1K Token 增加 2.5GB 降至 0.6GB,降幅达 76%

  • KTransformers :在 14B 模型微调中,吞吐量达到 530 tokens/s,仅需 6GB 显存,而 Hugging Face 需要 32GB(50)

2.2 社区表现与影响力分析

LlamaFactory 在开源社区取得了巨大成功,其影响力体现在多个维度:

GitHub 数据表现

  • 星标数量 :从 2024 年 3 月的 24,000 星标快速增长到 2025 年 12 月的 64,541 星标(40)

  • Fork 数量 :超过 3,000 个 fork(40)

  • 排名情况 :在 GitHub 上 Star 数量前 20 的开源 AI 项目中排名第 17 位(45)

社区活跃度

  • 项目持续更新,仅在 2025 年就有超过 20 次重要更新

  • 支持的模型和功能不断扩展,体现了强大的生命力

  • 获得了来自全球开发者的广泛关注和贡献

行业认可度

  • 被多家知名技术媒体报道,如 CSDN、掘金等(39)

  • 被收录到多个 Awesome 列表中,如 Awesome LLMs Fine-Tuning(41)

  • 成为大模型微调领域的标杆项目,被广泛引用和学习

企业应用情况

  • 已被多家国内外企业关注或落地应用(44)

  • 成为 DataWorks 等商业平台支持的 GPU 资源之一(46)

  • 在实际业务场景中得到验证,如 Web 安全领域专家模型的训练

2.3 性能基准测试与对比分析

LlamaFactory 在性能方面的优势通过大量基准测试得到验证:

训练效率对比(使用 NVIDIA A100 40GB GPU):

微调方法 可训练参数 显存占用 (GB) 吞吐量 (Tokens/s) 困惑度 (PPL)
全参数微调 2.51B 17.06 3090.42 10.34
冻结微调 0.33B 8.10 5608.49 11.33
GaLore 2.51B 10.16 2483.05 10.38
LoRA 0.16B 7.91 3521.05 10.19
QLoRA 0.16B 5.21 3158.59 10.46

从数据可以看出,QLoRA 在显存效率方面表现最佳 ,仅需 5.21GB 显存;冻结微调在吞吐量方面表现最佳 ,达到 5608.49 Tokens/s;而LoRA 在综合性能方面表现最优,在较低的显存占用下实现了较高的吞吐量和较好的模型质量。

与其他方案的对比

  1. 与 ChatGLM 官方方案对比
  • LoRA 微调相比 ChatGLM 官方的 P-Tuning 提供了3.7 倍的加速比 (56)

  • 在广告文案生成任务上取得了更高的 ROUGE 分数

  1. 不同加速引擎对比 (14B 模型)(50)
  • Hugging Face:吞吐量 303 tokens/s,显存 32GB

  • Unsloth:吞吐量 455 tokens/s,显存 9GB

  • KTransformers:吞吐量 530 tokens/s,显存 6GB

  1. 混合精度训练对比 (54)
  • FP32:显存占用约 72,000MB

  • FP16:显存占用约 43,500MB(节省 39.6%)

  • BF16:显存占用约 42,800MB(节省 40.6%)

推理性能优化

  • 集成 vLLM 推理引擎,相比 Hugging Face 实现了270% 的性能提升

  • 支持多种推理后端:vLLM worker 和 SGLang worker

  • 提供 OpenAI 风格的 API、Gradio UI 和命令行界面

2.4 实际应用案例与效果

LlamaFactory 在多个实际场景中展现了强大的应用价值:

Web 安全领域专家模型

  • 使用 Qwen2.5-7B-Instruct 作为基座模型

  • 通过 LoRA 微调实现专业化

  • 模型在 Web 安全领域具备专家级推理能力

  • 能够整合知识体系并跨知识点关联推理

  • 同时保留了非 Web 安全领域的知识迁移能力

多模态模型训练

  • 支持图像理解、视觉定位、视频识别、语音理解等任务

  • 成功案例包括 hiyouga/Qwen2-VL-7B-Pokemon 等特色模型

  • 支持从魔搭社区下载预训练模型和数据集

企业级应用

  • 被多家企业用于构建私有 AI 助手

  • 在票务系统、客户服务等场景中得到应用(48)

  • 支持零代码操作,降低了企业使用门槛

2.5 项目生态与发展前景

LlamaFactory 已经形成了完整的项目生态系统:

开源生态

  • 基于 Apache-2.0 协议开源,允许商业使用

  • 已有数百个基于 LlamaFactory 的模型发布在 Hugging Face Hub

  • 例如,Truong 等人基于 LlamaFactory 构建了 GemSUra7B,展示了 Gemma 模型的跨语言能力

学术影响力

  • 被多篇学术论文引用,用于大模型研究

  • 作者 hiyouga 在 ACL 2024 等顶级会议发表相关论文

  • 推动了大模型微调技术的标准化和普及

未来发展方向

  1. 模型支持扩展:持续增加对最新模型的支持,如 Llama 4、Qwen2.5 等

  2. 性能优化提升:通过技术创新进一步降低资源需求

  3. 功能模块完善:增加更多微调方法和评估工具

  4. 生态系统建设:加强与其他开源项目的集成

三、hiyouga 其他重要项目

除了 LlamaFactory,hiyouga 还开发了多个有影响力的项目:

EasyR1 (64)

  • 基于 veRL 的高效、可扩展、多模态强化学习 LLM 训练框架

  • 在短时间内获得 1.8K 星标

  • 与 SwanLab 集成,提供可视化训练支持

  • 专注于大模型的强化学习优化

其他项目列表

  1. FastEdit:10 秒内编辑大语言模型

  2. MathRuler:轻量级 LLM 评估工具

  3. ChatGLM-Efficient-Tuning:基于 PEFT 的高效 ChatGLM 微调(已归档)

  4. AMP-Regularizer:CVPR2021 论文的代码实现

  5. 多个知名项目的 fork 版本,包括 transformers、peft、vllm 等

这些项目展现了 hiyouga 在大模型训练、优化、评估等多个技术方向的深厚积累和创新能力。

四、总结与建议

4.1 研究发现总结

通过全面深入的研究,我们得出以下核心发现:

  1. 关于 B 站账号 :hiyouga 在 B 站没有公开的官方账号。尽管 LlamaFactory 在 B 站有大量教学视频,但这些视频均由其他技术博主创作,而非 hiyouga 本人。hiyouga 主要活跃在 GitHub、Twitter 和 Hugging Face 等技术社区。

  2. 技术影响力评估:hiyouga 是一位极具影响力的 AI 开发者,其 GitHub 项目 LlamaFactory 获得超过 6 万星标,成为大模型微调领域的标杆项目。他不仅在工程实现上有深厚造诣,还在学术研究方面发表了多篇高质量论文。

  3. LlamaFactory 技术价值:该项目通过创新的分层架构设计,实现了对 100 多种模型的统一支持,集成了业界主流的微调方法和优化技术。在性能方面,相比传统方案实现了 270% 的提升,显存效率提升 76%,充分展现了其技术领先性。

  4. 应用前景广阔:LlamaFactory 已在多个实际场景中得到验证,包括 Web 安全、多模态理解、企业服务等领域,展现了强大的实用价值和商业潜力。

4.2 对不同群体的建议

对开发者的建议

  1. 如果你是大模型开发者,LlamaFactory 是一个值得深入学习和使用的框架,它能大幅提升你的开发效率

  2. 建议关注 hiyouga 在 GitHub 和 Hugging Face 上的更新,及时了解最新的技术进展

  3. 可以尝试参与 LlamaFactory 的开源贡献,提升自己在大模型领域的技术能力

对企业用户的建议

  1. 如果你需要构建定制化的 AI 模型,LlamaFactory 提供了一个成熟的解决方案

  2. 其零代码 Web 界面降低了使用门槛,即使是非技术人员也能快速上手

  3. 建议根据实际需求选择合适的微调方法和模型,平衡性能和成本

对研究人员的建议

  1. LlamaFactory 的代码实现值得深入研究,特别是其模块化设计和性能优化技术

  2. 关注 hiyouga 的学术论文,了解大模型微调领域的最新研究进展

  3. 可以基于 LlamaFactory 进行二次开发,探索新的微调方法和应用场景

4.3 未来展望

LlamaFactory 作为大模型微调领域的重要项目,其未来发展值得期待:

  1. 技术持续创新:随着新模型架构的不断涌现,LlamaFactory 有望支持更多前沿模型

  2. 性能持续优化:通过算法创新和工程优化,进一步降低资源需求,提升训练效率

  3. 生态不断完善:与更多开源项目的集成将带来更丰富的功能和更广阔的应用场景

  4. 社区持续壮大:随着影响力的提升,将吸引更多开发者参与贡献,推动整个领域的发展

hiyouga 作为一位年轻有为的 AI 开发者,其在大模型领域的持续创新和开源贡献,不仅推动了技术进步,也为整个行业树立了榜样。我们期待他在未来能带来更多优秀的项目和创新成果。

参考资料

1\] UP主成长指南 UP主培训服务 目录 1. 账号注册与主页建(pdf) \[2\] How to Make a Bilibili Account: A Step-by-Step Guide \[3\] 本间向日葵 - 萌娘百科_万物皆可萌的百科全书 \[4\] 作者 声明 。 账号 问题 # 哔 哩 哔 哩[https://www.iesdouyin.com/share/note/7605935824203543104/?region=\&mid=7605592066916518710\&u_code=0\&did=MS4wLjABAAAANwkJuWIRFOzg5uCpDRpMj4OX-QryoDgn-yYlXQnRwQQ\&iid=MS4wLjABAAAANwkJuWIRFOzg5uCpDRpMj4OX-QryoDgn-yYlXQnRwQQ\&with_sec_did=1\&video_share_track_ver=\&titleType=title\&schema_type=37\&share_sign=H9GpNi6NEz6nAEV46Mjynt96zLRDlYtUxZhAcaQfwfI-\&share_version=280700\&ts=1770896970\&from_aid=1128\&from_ssr=1\&share_track_info=%7B%22link_description_type%22%3A%22%22%7D](https://www.iesdouyin.com/share/note/7605935824203543104/?region=&mid=7605592066916518710&u_code=0&did=MS4wLjABAAAANwkJuWIRFOzg5uCpDRpMj4OX-QryoDgn-yYlXQnRwQQ&iid=MS4wLjABAAAANwkJuWIRFOzg5uCpDRpMj4OX-QryoDgn-yYlXQnRwQQ&with_sec_did=1&video_share_track_ver=&titleType=title&schema_type=37&share_sign=H9GpNi6NEz6nAEV46Mjynt96zLRDlYtUxZhAcaQfwfI-&share_version=280700&ts=1770896970&from_aid=1128&from_ssr=1&share_track_info=%7B%22link_description_type%22%3A%22%22%7D) \[5\] LLaMA Factory 实战---单卡 3 小时训练你的专属大模型!-CSDN博客 \[6\] 每日GitHub精选:一站式大模型微调工具 LLaMA Factory_山南一蟹 \[7\] AI大模型训练与微调:10 分钟教你用 LLama-Factory 训练和微调 LLama3 模型_llamafactory cpu跑-CSDN博客 \[8\] GitHub每日最火火火项目(7.20)-CSDN博客 \[9\] 从0到1掌握编程,我的B站编程教学频道等你来!-CSDN博客 \[10\] B站号接码换绑首码注册_内容_核心_社区 \[11\] maoer_4KW52l4at3ty 的关注 - 猫耳FM \[12\] LLaMA Factory全解析:让大模型"改装"像组装电脑一样简单引言:当每个人都能定制自己的专属AI 朋友们,想象 - 掘金 \[13\] 基于 Docker 的 LLaMA-Factory 全流程部署指南这份指南将带你从零开始,完成基于 Docker 的环境 - 掘金 \[14\] LLaMA-Factory:一键微调大模型有手就会:LLaMA-Factory一键调教一个自己的大模型 简介 LLaMA - 掘金 \[15\] LLaMA-Factory 微调与部署详细流程:从入门到实践-AI.x-AIGC专属社区-51CTO.COM \[16\] 微调入门到落地:LLaMA Factory保姆级实战,让大模型为你的业务精准"打工"LLaMA Factory是中小企 - 掘金 \[17\] 从入门到精通:手把手教你用LLaMA Factory微调专属大模型大家好,我是AI博主maoku老师。你是否觉得大模型" - 掘金 \[18\] LLaMA Factory:让大模型微调变得更简单LLaMA-Factory不仅支持100多种大型语言模型的微调,而且简 - 掘金 \[19\] 【爆肝之作】大模型微调全攻略:从数据集构建到模型部署,LLaMA Factory保姆级教程!_vllm推理llamafactory微调后的模型-CSDN博客 \[20\] LLaMA-Factory/README_zh.md at main · hiyouga/LLaMA-Factory · GitHub \[21\] AutoDL中的LLaMA-Factory 使用 训练微调 llame3数据集 cmmlu_autodl llamafactory-CSDN博客 \[22\] 【转载】大模型高效微调框架LLaMA-Factory技术原理解析 \| SciSci AI Workshop-CSDN博客 \[23\] 大模型微调\|使用 LLaMA-Factory 微调 Llama3-8B-Chinese-Chat 完成知识问答任务_llamafactory chat-CSDN博客 \[24\] 【ChatGLM3】(7):在autodl上,使用A50显卡,使用LLaMa-Factory开源项目对ChatGLM3进行训练,非常方便的,也方便可以使用多个数据集 - 人工智能 \[25\] 5. 租赁 GPU 服务器并微调 Llama-Factory 模型_llamafactory tar下载-CSDN博客 \[26\] GOBI 2025 全球开源商业创新大会顶级嘉宾阵容公开!4 大 Panel 火力全开_CSDN \[27\] 一刻talks丨硬科技x新商业 \[28\] 千影光流(上海)信息技术有限公司 - 企查查 \[29\] 大模型书籍推荐丨假如大模型也读书,它一定不会错过这几本!_模型推理书籍-CSDN博客 \[30\] 听LLaMA Factory、vLLM、RAGFlow作者亲述顶级开源项目的增长法则\|GOBI 2025_CSDN \[31\] LLaMA-Factory 答疑系列二:高频问题 + 官方解决方案,建议收藏备用LLaMA-Factory 答疑系列二: - 掘金 \[32\] 郑纬民院士:做科普,为非专业人士消除信息差-腾讯新闻[https://view.inews.qq.com/a/20241002A01L4P00?uid%5B0%5D=100061292662\&uid%5B1%5D=100061292662](https://view.inews.qq.com/a/20241002A01L4P00?uid%5B0%5D=100061292662&uid%5B1%5D=100061292662) \[33\] bilibili(ビリビリ / 哔哩哔哩)とは? 中国の人気動画共有サービスを解説!![外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传](https://img-home.csdnimg.cn/images/20230724024159.png?origin_url=https%3A%2F%2Fcreson.jp%2Fmedia%2Fbilibili-explanation%2F&pos_id=img-MJeN0cUt-1770901038322) \[34\] b站视频酱的微博 \[35\] 天曰ひよとは? わかりやすく解説 \[36\] 我用人人都能用的AI工具,做了个"智能博物官",十一假期再也不会走马观花如何利用Qwen3-Omni大模型和LlamaF - 掘金 \[37\] 大模型私人定制:5分钟教你不写一行代码微调构建属于你的大模型(使用llama-factory微调Qwen大模型) - 掘金 \[38\] 一文看清AI、开源与商业的真正博弈,GOBI 2025圆满收官!_CSDN \[39\] Llama-Factory社区火爆\|GitHub星标突破10K背后的秘密-CSDN博客 \[40\] LLAMAFACTORY: Unified Efficient Fine-Tuning of 100+ Language Models \[41\] Awesome LLMs Fine-Tuning \[42\] 3步轻松微调Qwen3,本地电脑就能搞,这个方案可以封神了!【喂饭级教程】本期又是一篇喂饭级教程接下来跟着我实操,只需要 - 掘金 \[43\] 【项目复现上新】LLaMA Factory 微调实践:从零构建苏东坡角色扮演大模型 \| 附Lab4AI平台一键复现指南 - 掘金 \[44\] 首批演讲嘉宾官宣!GOSIM CHINA 2024 十月等你来!_CSDN \[45\] GitHub 上 Star 数量前 20 的开源 AI 项目OpenAI 重磅发布两个开源大模型,引爆开发者圈!本文精选 - 掘金 \[46\] 大数据AI一体化开发再加速:DataWorks 支持GPU类型资源DataWorks平台通过支持GPU资源,打破"大数据 - 掘金 \[47\] 20K star!搞定 LLM 微调的开源利器今天我们分享一个开源项目可以快速进行 LLM 微调,它不单运行效率高,而且 - 掘金 \[48\] 零代码,分钟级定制:我用LLaMA-Factory轻松造了个"票务专家"AI传统的基于关键词匹配的聊天机器人难以理解用户 - 掘金 \[49\] LLaMA Factory全解析:让大模型"改装"像组装电脑一样简单引言:当每个人都能定制自己的专属AI 朋友们,想象 - 掘金 \[50\] K Transformers + LLaMA - Factory 微调 # 小 工蚁 # 大模型 微调 # 开源 项目[https://www.iesdouyin.com/share/video/7575943813143727366/?region=\&mid=7575943705467603746\&u_code=0\&did=MS4wLjABAAAANwkJuWIRFOzg5uCpDRpMj4OX-QryoDgn-yYlXQnRwQQ\&iid=MS4wLjABAAAANwkJuWIRFOzg5uCpDRpMj4OX-QryoDgn-yYlXQnRwQQ\&with_sec_did=1\&video_share_track_ver=\&titleType=title\&share_sign=iwMgDtSLy.poXgrNf8AunxoMk.1W8rraLjppKVaX_Ec-\&share_version=280700\&ts=1770897053\&from_aid=1128\&from_ssr=1\&share_track_info=%7B%22link_description_type%22%3A%22%22%7D](https://www.iesdouyin.com/share/video/7575943813143727366/?region=&mid=7575943705467603746&u_code=0&did=MS4wLjABAAAANwkJuWIRFOzg5uCpDRpMj4OX-QryoDgn-yYlXQnRwQQ&iid=MS4wLjABAAAANwkJuWIRFOzg5uCpDRpMj4OX-QryoDgn-yYlXQnRwQQ&with_sec_did=1&video_share_track_ver=&titleType=title&share_sign=iwMgDtSLy.poXgrNf8AunxoMk.1W8rraLjppKVaX_Ec-&share_version=280700&ts=1770897053&from_aid=1128&from_ssr=1&share_track_info=%7B%22link_description_type%22%3A%22%22%7D) \[51\] LLaMA-Factory:高效微调百款大模型的利器-CSDN博客 \[52\] LLAMAFACTORY: Unified Efficient Fine-Tuning of 100+ Language Models(pdf) \[53\] LLaMA Factory \[54\] 混合精度训练实测:Llama-Factory BF16/FP16性能对比报告-CSDN博客 \[55\] GitHub - iyunya/LLaMA-Factory: Easy-to-use LLM fine-tuning framework (LLaMA, BLOOM, Mistral, Baichuan, Qwen, ChatGLM) \[56\] 徐斌/LLaMA-Factory \[57\] Performance Comparison \[58\] 天凉/LLaMA-Factory-Ex \[59\] NPU Inference \[60\] GitHub - LZHgrla/LLaMA-Factory: Easy-to-use LLM fine-tuning framework (LLaMA, BLOOM, Mistral, Baichuan, Qwen, ChatGLM) \[61\] LlamaFactory:零代码微调过百种 LLM 大模型_每日开源代码 \[62\] 2025-12-27 GitHub 热点项目精选# 🌟 2025-12-27 GitHub Python 热点项目精选 - 掘金 \[63\] GitHub一周热门ai项目 2025.3.17_码云上好的ai项目-CSDN博客 \[64\] SwanLab x EasyR1:多模态LLM强化学习后训练组合拳,让模型进化更高效很开心,SwanLab已经与多模态L - 掘金 \[65\] GitHub每日最火火火项目(7.17)_crawlee-python-CSDN博客 \[66\] 本地大模型运行工具、开源CRM等5个火爆项目_github crm-CSDN博客 \[67\] SwanLab x EasyR1:多模态大模型强化学习可视化训练_easy r1-CSDN博客 \[68\] 用LLama-Factory训练和微调 LLama3,打造你的专属 AI 模型!_llama factory-CSDN博客 \[69\] GitHub每日最火火火项目(7.20)-CSDN博客 \[70\] 大模型之Bloom\& LLAMA----RHLF(强化学习)-CSDN博客 \[71\] 和田 唯我 \[72\] 每日GitHub精选:一站式大模型微调工具 LLaMA Factory_山南一蟹 \[73\] 高村 大也 > (注:文档部分内容可能由 AI 生成)

相关推荐
WZ188104638691 小时前
软件测试人员怎样学习AI
人工智能·学习
Faker66363aaa1 小时前
大象目标检测与识别_yolo11-C2PSA-EPGO改进全流程实现
人工智能·目标检测·计算机视觉
weisian1511 小时前
进阶篇-机器学习篇-2--机器学习数学基础:不用啃课本,够用就行
人工智能·机器学习
予枫的编程笔记1 小时前
【Docker基础篇】从0到1写Dockerfile:FROM/COPY/CMD/ENTRYPOINT指令详解+Hello World实战
人工智能·docker·云计算·dockerfile·容器技术·docker入门·docker实战
2501_924878731 小时前
ROI实测:地市级融媒体中心三年TCO较A公司年费制降61.3%(矩阵跃动买断制)
人工智能·逻辑回归·动态规划·语音识别·媒体
Das11 小时前
【机器学习】支持向量机
人工智能·机器学习·支持向量机
小鸡吃米…1 小时前
TensorFlow 实现循环神经网络
人工智能·python·tensorflow
Coder_Boy_1 小时前
Java高级_资深_架构岗 核心面试知识点(AI整合+混合部署)
java·人工智能·spring boot·后端·面试·架构
2501_947908202 小时前
智远纳米科技量产100纳米级以下的材料引领纳米材料量产革命,形成「全球纳米材料障碍」
大数据·人工智能·科技