深度学习

crediks3 分钟前
人工智能·深度学习·算法
MTGR(美团生成式推荐框架)总结文档https://arxiv.org/abs/2505.18654MTGR: Industrial-Scale Generative Recommendation Framework in Meituan
qq_397562316 分钟前
人工智能·深度学习·神经网络
全连接神经网络 , 详解 .用矩阵形式理解全连接网络在图像分类任务中,对于一个需要识别0-9数字的神经网络,其输出确实是十个数值,这十个数值通常被解释为输入图片分别属于这十个类别的概率
智算菩萨2 小时前
论文阅读·人工智能·深度学习·机器学习·ai·自动驾驶
【Generative AI For Autonomous Driving】4 自动驾驶生成式模型前沿实战——从图像合成到多模态大模型的技术全景解析文献来源:Wang Y, Xing S, Can C, et al. Generative ai for autonomous driving: Frontiers and opportunities[J]. arXiv preprint arXiv:2505.08854, 2025.
智算菩萨10 小时前
论文阅读·人工智能·深度学习·ai·agi
【How Far Are We From AGI】3 AGI的边界扩张——数字、物理与智能三重接口的技术实现与伦理困境目录3.1 数字界面的渗透:当AI学会使用并创造工具3.1.1 工具学习的演进:从调用到创造3.1.2 数字具身与环境交互
剑穗挂着新流苏31210 小时前
python·深度学习·transformer
Pytorch加载数据Dataset 是一个抽象类。当你自定义一个 Dataset 时,本质上是在重写一份“说明书”,告诉 PyTorch 如何读取你的特定数据。
智算菩萨14 小时前
论文阅读·人工智能·深度学习·ai·agi
【How Far Are We From AGI】6 AGI的进化论——从胚胎到终极的三级跃迁与发展路线图目录6.1 AGI的三重境界:能力层级的重新定义6.1.1 Level 1:胚胎级AGI——特定领域的超人,通用世界的学徒
梦醒过后说珍重14 小时前
深度学习
【超分实战】拒绝灾难性遗忘!记一次原生4K医疗影像(SurgiSR4K)的模型微调踩坑实录最近在做医疗影像的超分辨率(Super-Resolution, SR)任务。我们都知道,深度学习模型如果直接在一个垂直领域的小数据集上从头训练,往往很难收敛,效果也不尽如人意。标准的做法是:先在一个大规模通用数据集(如 DIV2K)上预训练,让模型学会提取直线、角点、色彩过渡等“基础高频特征”,然后再迁移到我们特定的医疗数据集(我使用的是最新开源的原生 4K 内窥镜数据集 SurgiSR4K)上进行微调(Fine-tuning) 。
梦醒过后说珍重14 小时前
深度学习
拒绝显存溢出!手把手教你写原生 4K 超分辨率数据集 (SurgiSR4K) 的 PyTorch DataLoader在医疗影像的超分辨率(Super-Resolution, SR)研究中,高质量的开源数据一直是稀缺资源。近期由香港中文大学、直觉外科公司等机构联合推出的 SurgiSR4K 数据集打破了这一僵局。作为首个针对机器人辅助微创手术的原生 4K (3840×2160) 视频数据集,它不仅提供了完美的亚像素级对齐,还涵盖了反光、遮挡、烟雾等极具挑战性的真实手术场景。
junjunzai12315 小时前
人工智能·深度学习
设置cuda:1但是cuda:0在波动的问题yolo设置gpu:1但是在启动之后, 会发现gpu:0上也会出现相同进程号的进程, 并且gpu:0的利用率在波动, 而gpu1没有波动.
智算菩萨17 小时前
论文阅读·人工智能·深度学习·ai·多目标·综述
多目标超启发式算法系统文献综述:人机协同大语言模型方法论深度精读本文是对Ghanbarzadeh等人于2026年发表在学术期刊上的系统文献综述论文《Systematic Literature Review of Multi-Objective Hyper-Heuristics: A Human-in-the-Loop Large Language Model Methodology》的深度精读。该论文对2005年至2025年间发表的236篇多目标超启发式算法(Multi-Objective Hyper-Heuristics, MOHHs)相关文献进行了系统性综述,采用
简单光学17 小时前
深度学习·扩散模型·散射成像·分数匹配·随机微分方程
ISDM: 基于生成扩散模型的散射介质成像重建技术报告散射介质成像是一项具有重大科学意义和广泛应用前景的技术挑战。当光波通过散射介质(如雾、生物组织、磨砂玻璃等)时,会发生多重散射现象,导致原始图像信息被严重破坏,形成随机散斑图样。本研究探讨了一种基于生成扩散模型的散射介质成像重建方法(ISDM),通过训练深度神经网络学习图像的分数函数,利用反向扩散采样过程从散斑图像中恢复原始目标图像。该方法采用方差爆炸随机微分方程(VESDE)建模前向扩散过程,使用NCSN++网络架构估计分数函数,结合预测-校正采样策略和数据一致性约束实现高质量图像重建。实验结果表明,与
IT阳晨。17 小时前
人工智能·pytorch·深度学习
PyTorch深度学习实践最近学习了以下 bilibili 博主刘二大人的PyTorch深度学习实践教程,做成笔记方便回顾并且分享给大家。
智算菩萨17 小时前
论文阅读·人工智能·深度学习·ai·接口·agi·对齐技术
【How Far Are We From AGI】5 AGI的“道德罗盘“——价值对齐的技术路径与伦理边界目录5.1 对齐的期望:从工具安全到存在性风险管理5.1.1 为什么对齐是不可妥协的底线?5.1.2 AGI对齐的伦理维度
Sakuraba Ema18 小时前
人工智能·pytorch·python·深度学习·数学·llm·latex
从零理解 MoE(Mixture of Experts)混合专家:原理、数学、稀疏性、专家数量影响与手写 PyTorch 实现这篇博客面向已经有一定 Transformer / FFN 基础的读者。 我们会从 MoE 的核心思想 出发,解释它为什么能在“大参数量”和“可控计算量”之间取得平衡;然后介绍它的数学形式、稀疏路由、负载均衡,以及 专家数量对预训练的影响;最后基于一份教学版 PyTorch 代码,逐模块拆解,并给出对应的小例子和完整代码。
freewlt18 小时前
人工智能·深度学习·计算机视觉
科技热点速递:AI技术集中爆发
南宫乘风18 小时前
人工智能·深度学习·llama
LLaMA-Factory 给 Qwen1.5 做 LoRA 微调 实战我见过不少团队一上来就想“改模型人设”,最后变成两种结果:这篇文章不追求“最简单能跑通”,而是按生产视角把流程写成一个可复用的 runbook: 用 LLaMA-Factory 基于 Qwen1.5-1.8B-Chat 做 LoRA SFT,把“你是谁?”的回答稳定改成:
小陈phd19 小时前
笔记·深度学习·学习·自然语言处理·transformer
多模态大模型学习笔记(二十一)—— 基于 Scaling Law方法 的大模型训练算力估算与 GPU 资源配置Scaling Law(缩放定律)是描述大型语言模型性能与模型规模、数据量、计算量之间关系的经验规律。它揭示了:当增加模型参数量、训练数据量或计算资源时,模型性能会如何变化。
zm-v-1593043398619 小时前
python·深度学习·机器学习
Python 气象数据处理从入门到精通:机器学习订正 + 深度学习预测完整教程1.1 Python背景及其在气象中的应用 1.2 Anaconda解释和安装以及Jupyter配置 1.3 Python基础语法
nap-joker19 小时前
人工智能·深度学习·影像·生物年龄·age gap
【生物年龄age gap】基于影像的器官特异性衰老时钟预测人类疾病和死亡率1、分析方法较多:结构方程模型分析器官间衰老关联;Cox回归评估年龄差与疾病/死亡的关联;LightGBM用于疾病风险预测;