训练

Swizard2 天前
python·算法·训练
别再迷信“准确率”了!一文读懂 AI 图像分割的黄金标尺 —— Dice 系数想象这样一个痛点场景:你正在训练一个 AI 模型,任务是从脑部核磁共振(MRI)扫描中找出极小的肿瘤区域。你熬夜跑完代码,发现模型在验证集上的 Accuracy(准确率)高达 99.9%!
Swizard3 天前
算法·ai·训练
告别样本不平衡噩梦:Focal Loss 让你的模型学会“划重点”你是否遇到过这种令人抓狂的场景?你在训练一个癌症检测模型,数据集中 99% 都是健康样本(负样本),只有 1% 是患病样本(正样本)。你满怀期待地跑完训练,发现模型的准确率(Accuracy)高达 99%!
Yeliang Wu9 天前
微调·多模态·训练·ms-swift
基于ms-swift框架微调多模态模型(Ubuntu22.04)作者:吴业亮 博客:wuyeliang.blog.csdn.net本文从核心原理到实操步骤,完整讲解基于微软ms-swift(ModelScope Swift)框架在Ubuntu22.04系统上微调多模态模型(如Qwen-VL、LLaVA、MiniCPM-V等)的全流程。
Yeliang Wu9 天前
微调·embedding·训练·ms-swift
基于 ms-swift 框架微调 Embedding 模型(Ubuntu22.04):从原理到实践作者:吴业亮 博客:wuyeliang.blog.csdn.netEmbedding模型的核心是将文本转化为低维稠密向量,使语义相似的文本向量距离更近、语义相异的更远。微调的目标是让预训练Embedding模型适配特定领域/任务(如金融、医疗文本相似度匹配),核心逻辑是:
Yeliang Wu9 天前
微调·训练·unsloth
Unsloth 从原理到实践(基于Ubuntu 22.04)作者:吴业亮 博客:wuyeliang.blog.csdn.netUnsloth 是一款面向大语言模型(LLM)的高效微调框架,主打低资源占用、超高训练速度,核心优化了 QLoRA/LoRA 微调流程,适配 Ubuntu 22.04 等Linux环境,支持 Llama、Mistral、Phi、Gemma 等主流开源模型。本文从原理到全流程实践,覆盖环境搭建、数据集处理、微调、模型合并、量化、评测、监控等核心环节。
我很哇塞耶13 天前
人工智能·ai·大模型·训练
OpenAI公开新的模型训练方法:或许能解决模型撒谎问题,已在GPT-5 thiking验证研究人员在GPT-5-Thinking上进行了实验。结果显示,通过这种训练,通过“坦白”来监测模型的不当行为是可行的,即使模型在主要回答中撒了谎,它往往也能在随后的“坦白”中诚实交代
dundunmm4 个月前
人工智能·大模型·硬件·软件·训练·推理
【每天一个知识点】训推一体机训推一体机一般指 集“模型训练(Training)+ 推理部署(Inference Serving/推理服务)”于一体的智能计算设备。这种一体机的设计思路是,把 AI 模型从研发到应用的全过程(数据准备 → 训练 → 验证 → 部署 → 推理)都封装在一台硬件平台里,便于企业、科研机构或高校快速落地 AI 应用。
太空眼睛7 个月前
lora·微调·sft·训练·deepspeed·llama-factory·deepseek
【LLaMA-Factory】使用LoRa微调训练DeepSeek-R1-Distill-Qwen-7B如果不禁用开源驱动,直接安装nvidia-smi,会安装失败,在日志文件/var/log/nvidia-installer.log中会出现以下错误信息 ERROR: Unable to load the kernel module 'nvidia.ko'
文慧的科技江湖8 个月前
人工智能·开源·储能·训练·光伏·推理
图文结合 - 光伏系统产品设计PRD文档 -(慧哥)慧知开源充电桩平台‌版本号‌:1.0 ‌修订日期‌:2023年10月 ‌作者‌:‌功能描述‌:实时采集并展示电站运行数据
文慧的科技江湖8 个月前
人工智能·架构·开源·训练·推理
AI平台如何实现推理?数算岛是一个开源的AI平台(主要用于管理和调度分布式AI训练和推理任务。)数算岛是一个开源的AI平台,主要用于管理和调度分布式AI训练和推理任务。它基于Kubernetes构建,支持多种深度学习框架(如TensorFlow、PyTorch等)。以下是数算岛实现模型推理的核心原理、架构及具体实现步骤:
大0马浓9 个月前
人工智能·python·训练
训练大模型LLM选择哪种开发语言最好训练大型语言模型(LLM)时,选择合适的编程语言主要取决于效率、生态支持、开发便利性以及特定需求(如性能优化或硬件适配)。以下是常见语言的分析和推荐:
大0马浓9 个月前
数据库·训练·rag
LLM训练如何从图片提取信息存入向量数据库‌数据泄露风险‌‌特征对齐偏差‌‌计算资源瓶颈‌通过上述方案,可实现从图片到结构化向量数据的完整链路,为LLM提供跨模态理解能力。实际部署时需根据场景需求在‌精度‌(大模型)和‌速度‌(轻量化模型)之间取得平衡。
engchina10 个月前
数据库·adb·oracle·训练
在Autonomous DB中创建训练数据集在机器学习中,构建高质量的训练数据集是模型成功的关键,尤其当需要利用公司内部数据时。如何高效、灵活地构建这些数据集是每个数据工程师面临的重要问题。本文将详细介绍如何在Autonomous DB中创建学习数据集,并结合SQL和JSON格式生成适用于训练的样本数据。
伊织code1 年前
人工智能·语言模型·自然语言处理·训练·minimind
MiniMind - 从0训练语言模型《AI 技术资讯分享》扫码入群:https://www.yuque.com/yizhi-lentn/zctmmg/xpamt1qpp2xv8q8b
弗锐土豆1 年前
人工智能·pytorch·目标检测·训练·全过程
基于Pytorch和yolov8n手搓安全帽目标检测的全过程还是之前的主题,使用开源软件为公司搭建安全管理平台,从视觉模型识别安全帽开始。主要参考学习了开源项目 https://github.com/jomarkow/Safety-Helmet-Detection,我是从运行、训练、标注倒过来学习的。由于工作原因,抽空学习了vscode的使用、python语法,了解了pytorch、yolo、ultralytics、cuda、cuda toolkit、cudnn、AI的分类、AI的相关专业名词等等。到这里,基本可以利用工程化的方式解决目标检测环境搭建、AI标注、训
俊偉1 年前
stable diffusion·扩散模型·训练·ai炼丹
如何训练Stable Diffusion 模型训练Stable Diffusion模型是一个复杂且资源密集的过程,通常需要大量的计算资源(如GPU或TPU)和时间。Stable Diffusion是一种基于扩散模型的生成式AI,能够根据文本提示生成高质量的图像。它的训练过程涉及多个步骤,包括数据准备、模型配置、训练参数调整等。以下是训练Stable Diffusion模型的基本步骤和注意事项:
m0_608570981 年前
微调·llama·训练
使用 GaLore 预训练LLaMA-7B项目代码:https://github.com/jiaweizzhao/galorehttps://github.com/jiaweizzhao/galore
Light Gao1 年前
人工智能·算法·ai·大模型·训练
AI入门指南(二):算法、训练、模型、大模型是什么?人工智能(AI)已经成为现代科技的热门话题,但对于刚接触这个领域的人来说,其中的一些基本概念可能会感到困惑。本文将带你了解AI的几个关键概念:算法、模型、训练和大模型,并通过生活中的例子和实际应用来深入浅出地解释这些概念。
Bestaier1 年前
大模型·训练·数据并行·模型并行·megatron-lm·流水线并行·张量并行
跟代码执行流程,读Megatron源码(四)megatron初始化脚本initialize.py之initialize_megatron()分布式环境初始化在前文中,我们讲述了pretrain函数的执行流程,其首要步骤是megatron分组的初始化与环境的配置。本文将深入initialize_megatron函数源码,剖析其初始化分布式训练环境的内部机制。
J ..2 年前
pcl·训练·randla-net
RandLA-Net 训练自定义数据集https://arxiv.org/abs/1911.11236