微调

华尔街的幻觉5 天前
微调·datawhale
Datawhale AI夏令营——列车信息智能问答——科大讯飞AI大赛(基于结构化数据的用户意图理解和知识问答挑战赛)坐火车的你,遇到过这样的场景吗?我们这次将一起来探索——如何让AI“看懂”列车时刻表! 你随口一问(比如“K123在哪检票?”),AI秒回精准答案! 告别抓狂!
仅此,13 天前
大模型·微调·魔搭·ms-swift
魔搭官方教程【快速开始】-swift 微调报错:`if v not in ALL_PARALLEL_STYLES`在魔搭社区按照官方教程搭建大模型时,在微调阶段 执行【微调脚本】出现了问题: 报错最后提示 if v not in ALL_PARALLEL_STYLES
MUTA️16 天前
人工智能·深度学习·微调·prompt·多模态
Clip微调系列:《MaPLe: Multi-modal Prompt Learning》论文链接:arxiv.org/pdf/2210.03117参考链接:(28 封私信) CVPR2023 | MaPLe: Multi-modal Prompt Learning - 知乎
西西弗Sisyphus1 个月前
微调·llama·llama-factory·后训练
LLaMA-Factory 单卡后训练微调Qwen3完整脚本flyfish将下面代码保存为 train_single_gpu.sh修改脚本中的以下参数: MODEL_PATH:模型路径 DS_CONFIG_PATH:DeepSpeed配置文件路径 OUTPUT_PATH:输出目录路径 --dataset erfen:替换为实际数据集名称 这里是erfen
仙人掌_lz2 个月前
人工智能·python·ai·lora·llm·微调·qwen3
Qwen-3 微调实战:用 Python 和 Unsloth 打造专属 AI 模型虽然大家都忙着在 DeepSeek 上构建应用,但那些聪明的开发者们却悄悄发现了 Qwen-3 的微调功能,这可是一个隐藏的宝藏,能把通用型 AI 变成你的专属数字专家。
咕噜咕噜day2 个月前
微调·adapter·lora微调·微调与rag区别·微调分类
高效微调方法简述针对成本和性价比选择RAG或微调,那他们适用的范围和区别要提前了解;形象的描述预训练、微调、提示工程、Agents:
Toky丶2 个月前
人工智能·大模型·微调
SmolVLM2: The Smollest Video Model Ever(七)现在的数据集里面只涉及tool的分类和手术phase的分类,所以编写的评价指标还是那些通用的,但是:predicted_labels:['The current surgical phase is CalotTriangleDissection, Grasper, Hook tool exists.', 'The current surgical phase is GallbladderDissection, Grasper, Hook tool exists.', 'The current surgic
阿丢是丢心心2 个月前
chatgpt·微调·强化学习·rlhf
【从0到1搞懂大模型】chatGPT 中的对齐优化(RLHF)讲解与实战(9)chatgpt系列模型演进的重要节点包含下面几个模型(当然,这两年模型发展太快了,4o这些推理模型我就先不写了) (Transformer) → GPT-1 → GPT-2 → GPT-3 → InstructGPT/ChatGPT(GPT-3.5) → GPT-4 下面介绍一下各个模型之前的重点差异
小草cys3 个月前
lora·微调·qwen
使用LoRA微调Qwen2.5-VL-7B-Instruct完成电气主接线图识别任务适配需求 Qwen2.5-VL在视觉理解方面表现优异,但电气主接线图识别需要特定领域的结构化输出能力(如设备参数提取、拓扑关系解析)。微调可增强模型对专业符号(如SCB10-1000KVA)和工程图纸布局的理解。
玩电脑的辣条哥3 个月前
lora·微调·数据集
什么是alpaca 或 sharegpt 格式的数据集?LLaMA-Factoryalpaca 或 sharegpt 格式的数据集?“Alpaca”和“ShareGPT”格式的数据集,是近年来在开源大语言模型微调和对话数据构建领域比较流行的两种格式。它们主要用于训练和微调以生成对话或指令驱动的模型。下面我详细介绍两者的特点和示例格式。
Code_流苏3 个月前
python·微调·问答系统·bert·应用场景·基于检索·基于生成
《Python星球日记》 第72天:问答系统与信息检索名人说:路漫漫其修远兮,吾将上下而求索。—— 屈原《离骚》 创作者:Code_流苏(CSDN)(一个喜欢古诗词和编程的Coder😊)
太空眼睛3 个月前
lora·微调·sft·训练·deepspeed·llama-factory·deepseek
【LLaMA-Factory】使用LoRa微调训练DeepSeek-R1-Distill-Qwen-7B如果不禁用开源驱动,直接安装nvidia-smi,会安装失败,在日志文件/var/log/nvidia-installer.log中会出现以下错误信息 ERROR: Unable to load the kernel module 'nvidia.ko'
AI大模型顾潇3 个月前
数据库·人工智能·安全·大模型·llm·微调·llama
[特殊字符] 本地部署DeepSeek大模型:安全加固与企业级集成方案零信任架构设计:实施要点:建立VPN隧道:wg genkey | tee privatekey | wg pubkey > publickey
Silence4Allen3 个月前
人工智能·大模型·微调·llama-factory
大模型微调指南之 LLaMA-Factory 篇:一键启动LLaMA系列模型高效微调LLaMA-Factory 是一个用于训练和微调模型的工具。它支持全参数微调、LoRA 微调、QLoRA 微调、模型评估、模型推理和模型导出等功能。
Code_流苏3 个月前
python·深度学习·微调·resnet·迁移学习·预训练模型·超参数优化
《Python星球日记》 第55天:迁移学习与预训练模型名人说:路漫漫其修远兮,吾将上下而求索。—— 屈原《离骚》 创作者:Code_流苏(CSDN)(一个喜欢古诗词和编程的Coder😊)
Silence4Allen3 个月前
人工智能·大模型·微调·xtuner·llamafactory
大模型微调终极方案:LoRA、QLoRA原理详解与LLaMA-Factory、Xtuner实战对比微调(Fine-tuning)是深度学习中的一种常见方法,它通常用于在预训练模型的基础上进行进一步的训练,以适应特定的任务。微调的主要目的是利用预训练模型已经学习到的通用知识,从而提高模型在特定任务上的性能。常见的微调框架有 LLaMA-Factory 和 XTuner 等。
AI掘金3 个月前
微调·aigc·蒸馏·ai应用·deepseek·小模型推理
DeepSeek实战--蒸馏知识蒸馏(Knowledge Distillation)最早由Hinton等人在2015年提出,主要用于压缩模型。
joexk3 个月前
微调·triton·llamafactory·no module·triton.ops
llamafactory微调模型报错ModuleNotFoundError: No module named ‘triton.ops‘在阿里云Notebook上使用llamafactory微调Meta-Llama-3-8B-Instruct模型报错ModuleNotFoundError: No module named ‘triton.ops’
水煮蛋不加蛋3 个月前
人工智能·机器学习·ai·大模型·llm·微调·迁移学习
从 Pretrain 到 Fine-tuning:大模型迁移学习的核心原理剖析在人工智能领域,大模型的出现掀起了一场技术革命。这些拥有海量参数的模型,如 GPT-4、PaLM 等,在众多任务上展现出了惊人的能力。然而,训练一个大模型需要耗费巨大的计算资源和时间,而且直接让大模型处理特定领域的任务往往效果不佳。这时,迁移学习成为了关键技术,它让大模型能够高效地适应不同的任务和领域。本文将深入剖析大模型迁移学习中 Pretrain(预训练)和 Fine-tuning(微调)的核心原理。
青橘MATLAB学习3 个月前
人工智能·深度学习·微调·迁移学习·预训练·梯度消失·模型复用
深度学习中的预训练与微调:从基础概念到实战应用全解析本文系统解析深度学习中预训练与微调技术,涵盖核心概念、技术优势、模型复用策略、与迁移学习的结合方式,以及微调过程中网络参数更新机制、模型状态分类等内容。同时深入分析深层神经网络训练难点如梯度消失/爆炸问题,为模型优化提供理论支撑。适合深度学习开发者及研究者快速掌握迁移学习核心技术。 关键词:预训练;微调;迁移学习;梯度消失;模型复用