迁移学习

Allen_LVyingbo8 小时前
人工智能·分类·知识图谱·健康医疗·迁移学习
32B多模态医疗大模型预训练:端到端工程化本文档为32B参数、文本+影像+波形多模态医疗大模型的预训练任务,提供一套完整的工程化落地方案。内容涵盖从硬件选型、网络架构、存储设计到软件栈配置的全链条指导,包含量化的性能指标、采购标准、运维规程和故障排查手册。
爱打代码的小林1 天前
人工智能·分类·迁移学习
基于 ResNet18 迁移学习的 20 类食物图像分类在计算机视觉的图像分类任务中,从头搭建并训练深度神经网络不仅需要大量的标注数据,还需要耗费大量的计算资源。迁移学习作为一种高效的建模方法,能够借助预训练模型的特征提取能力,快速适配新的分类任务。本文将以 20 类食物分类为例,详细讲解如何基于 PyTorch 框架,利用 ResNet18 预训练模型实现迁移学习,从模型改造、数据处理到训练测试。
Allen_LVyingbo1 天前
人工智能·python·分类·知识图谱·健康医疗·迁移学习
面向70B多模态医疗大模型预训练的工程落地(医疗大模型预训练扩展包)本文档面向需在机构内部(医院、科研所、大型医疗企业)落地70B参数级别的多模态(文本+影像+波形)大模型预训练的项目团队,目标是把抽象的研究方案变成可执行的工程计划与交付物。内容覆盖:数据工程、合规与去标识化、硬件选型、并行训练策略、存储与网络设计、PoC 与验收测试、运维与监控、RFP 与采购建议、预算估算与人员配置建议。每个章节均提供可直接拷贝执行的清单、命令样例与配置模板,便于项目经理与工程师快速上手。
Dyanic1 天前
人工智能·机器学习·迁移学习
通用图像融合方法利用梯度迁移学习与融合规则展开作者: Wu Wang, Liang-Jian Deng, Qi Cao, Gemine Vivone 发表期刊: IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE 论文地址: https://ieeexplore.ieee.org/document/11359013
源于花海3 天前
人工智能·机器学习·迁移学习·深度神经网络·深度迁移学习
深度迁移学习:深度神经网络的可迁移性Hi,大家好,我是半亩花海。在上节说明了最简单的深度迁移--Finetune(微调)之后,本文主要将介绍迁移学习的深度迁移学习——深度神经网络的可迁移性。本文探讨了深度神经网络的可迁移性,重点分析了不同网络层次的特征迁移能力。研究表明:1)网络前3层主要学习通用特征,迁移效果最佳;2)加入微调(fine-tune)能显著提升迁移性能;3)深度迁移比随机初始化效果更好;4)层次迁移能加速网络优化。实验发现,随着迁移层数增加,性能会下降,但前3层始终具有较好的可迁移性。
源于花海3 天前
人工智能·机器学习·迁移学习·finetune·深度迁移学习
深度迁移学习:最简单的深度迁移——Finetune(微调)Hi,大家好,我是半亩花海。在上节说明了迁移学习的第三类方法:子空间学习之后,本文主要将介绍深度迁移学习——最简单的深度迁移--Finetune(微调)。Finetune利用预训练网络针对新任务进行调整,避免了从头训练网络的高成本。文章阐述了Finetune的必要性:预训练网络具有强大的泛化能力,但需要针对特定任务进行调整。Finetune通过固定网络前层参数、微调后层参数,显著提升训练效率和模型性能。此外,Finetune还可用于特征提取,替代传统手工特征方法。实验证明,基于深度网络的特征提取在图像分类
觉醒大王3 天前
java·前端·数据库·学习·自然语言处理·学习方法·迁移学习
简单说说参考文献引用(1)首先是要不要交叉引用 1.学校的格式要求明确提出使用交叉引用→用交叉引用 2.脚注/尾注/注释→使用对应的脚注/尾注/注释 3.其他→不用交叉引用,选择文献管理工具(endnote、zotero、note express、知网研学、适配latex的BIBTEX等等)或者在文献数据库(知网/艳芳/百度学术/谷歌学术/web of science等等)选择需要的格式导出,粘贴 (2)关于参考文献部分的查重 和是否交叉引用无关,参考文献不参与查重。 怎么可以被识别为参考文献而不被标红?→将“参考文献”这四
源于花海4 天前
人工智能·机器学习·迁移学习·流形学习·子空间学习
迁移学习的第三类方法:子空间学习(2)——流形学习Hi,大家好,我是半亩花海。在上节说明了迁移学习的第二类方法:特征选择之后,本文主要将介绍迁移学习的第三类方法——子空间学习(2)——流形学习。本文重点阐述了Grassmann流形在特征变换中的应用。流形学习假设高维数据具有低维流形结构,利用测地线距离度量数据关系。文章详细解析了两种代表性方法:SGF通过中间点构建源域到目标域的测地线路径,但存在参数确定难题;GFK则创新性地采用核学习方法解决该问题,并提出多源域选择策略。这些方法为处理跨域数据分布差异提供了有效解决方案。
海天一色y8 天前
分类·迁移学习·宠物
基于迁移学习实现宠物分类(oxford-iiit-pet数据集)任务宠物分类是计算机视觉中的重要应用场景,旨在自动识别不同品种的猫狗。本项目使用Oxford-IIIT Pet数据集,通过迁移学习技术构建高效准确的宠物分类模型。
Blossom.1189 天前
人工智能·分布式·python·深度学习·神经网络·chatgpt·迁移学习
AI Agent智能办公助手:从ChatGPT到真正“干活“的系统摘要:本文揭秘如何构建一个生产级的AI Agent办公自动化系统。基于ReAct框架与函数调用(Function Calling)技术,我们打造了一个能自主操作ERP、写邮件、生成报表的"数字员工"。文章将深入解析Agent的任务规划、工具调用、记忆管理等核心模块,并提供可直接落地的Python实现。实测在真实企业场景中,日均自动处理200+工单,准确率达94%,较传统RPA方案灵活度提升5倍。
莫非王土也非王臣9 天前
人工智能·机器学习·迁移学习
迁移学习详情介绍利用已经训练好的模型作为新模型训练的初始化的学习方式。为什么使用迁移学习呢?1.所需要的样本更少;2.模型达到收敛所需的耗时更短;
没学上了11 天前
深度学习·transformer·迁移学习
Vlm-Swim Transformer迁移学习Swin Transformer(简称 Swin)是微软团队 2021 年提出的分层视觉 Transformer 模型,发表于论文《Swin Transformer: Hierarchical Vision Transformer using Shifted Windows》。它的核心创新是移位窗口自注意力机制,解决了原始 ViT 在高分辨率图像上计算量爆炸的问题,同时支持层级特征表示,完美适配目标检测、语义分割等密集预测任务,是目前计算机视觉领域最主流的 Transformer 骨干网络之一。
Blossom.11812 天前
人工智能·分布式·python·深度学习·神经网络·机器学习·迁移学习
大模型分布式训练通信优化:从Ring All-Reduce到分层压缩的实战演进摘要:本文深度揭秘大模型分布式训练中的通信瓶颈与优化体系。通过Ring All-Reduce的拓扑感知改进、梯度压缩算法(PowerSGD+EF21)的融合实现、以及通信-计算重叠的流水线设计,在千卡集群上训练175B模型时,通信耗时占比从68%降至12%,吞吐量提升4.7倍。提供完整的PyTorch通信原语改造、NCCL调优、分层压缩代码,已在某云厂商大模型平台稳定训练6个月,支持万卡级扩展,单卡有效算力达理论峰值的82%。
DBA小马哥14 天前
数据库·安全·mongodb·dba·迁移学习
金仓数据库引领国产化替代新范式:构建高效、安全的文档型数据库迁移解决方案目录一、为何企业正在加速推进“文档型数据库迁移替换”?二、痛点剖析:传统文档型数据库架构面临哪些现实挑战?
qq_3814549915 天前
迁移学习
迁移学习:AI时代的智慧复用术迁移学习(Transfer Learning)是机器学习的一个重要分支,核心思想是将源领域(Source Domain)学到的知识迁移到目标领域(Target Domain),以解决目标领域数据不足、训练成本高或任务相似但分布不同等问题。它打破了传统机器学习“每个任务独立训练”的局限,通过复用已有知识提升新任务的效率和性能。
每天学点16 天前
迁移学习·光谱库
土壤光谱建模需立足全局,通过迁移学习适配局部(Earth-Science Reviews,2024)DOI: https://doi.org/10.1016/j.earscirev.2024.104797
源于花海17 天前
人工智能·机器学习·迁移学习·特征选择
迁移学习的第二类方法:特征选择Hi,大家好,我是半亩花海。在上节说明了迁移学习的第一类方法:数据分布自适应之后,本文主要将介绍迁移学习的第二类方法——特征选择。该方法基于源域和目标域存在共享特征的假设,通过机器学习选择这些公共特征来构建模型。重点讲解了经典SCL方法及其核心概念Pivot feature(跨领域高频词),并列举了后续扩展研究如联合特征选择与子空间学习等方法。特征选择法通常与分布自适应方法结合,采用稀疏表示实现特征选择,为迁移学习提供了重要技术路径。
Blossom.11820 天前
开发语言·人工智能·python·深度学习·神经网络·机器学习·迁移学习
联邦迁移学习实战:在数据孤岛中构建个性化推荐模型摘要:本文深度解析联邦迁移学习(FedTransfer)在跨机构数据协作中的工程化落地。通过个性化联邦平均算法(pFedMe)与差分隐私的融合设计,在保护用户隐私前提下,实现CTR建模AUC提升0.082,冷启动用户覆盖率提升3.7倍。提供完整的PyTorch联邦训练框架与TensorFlow Privacy隐私保护代码,支持医疗、金融、电商三场景复用,已在某省卫健委联合医院联盟部署,日均处理 federated learning 任务12万次。
源于花海21 天前
人工智能·机器学习·迁移学习·联合分布自适应
迁移学习的第一类方法:数据分布自适应(3)——联合分布自适应Hi,大家好,我是半亩花海。在上节说明了迁移学习领域的条件分布自适应之后,本文主要将介绍迁移学习的第一类方法——数据分布自适应,重点阐述了联合分布自适应(JDA)的原理与应用。该方法通过同时减小源域和目标域的边缘分布和条件分布差异来实现迁移。JDA的核心思路是利用最大均值差异(MMD)距离来对齐两个域的分布,其中条件分布通过伪标签进行近似估计。另外,该方法采用迭代优化策略,逐步改进伪标签质量。
子夜江寒23 天前
pytorch·学习·迁移学习
了解 PyTorch 学习率调整和迁移学习学习率是深度学习模型训练中的关键超参数。较大的学习率能使模型快速收敛,但也可能导致震荡或不收敛;较小的学习率虽然稳定,但收敛速度慢。在实际训练中,我们通常希望在训练初期使用较大学习率加速收敛,在训练后期使用较小学习率精细调优。