深度学习

有Li8 分钟前
人工智能·深度学习·文献·医学生
基于几何映射的二维自然图像到四维fMRI脑图像的迁移学习/文献速递-大模型与图像分割在医疗影像中应用2026.3.13本研究提出了一种基于几何映射的fMRI迁移学习方法,通过将四维fMRI脑皮层数据转换为二维图像,并结合多尺度多域特征聚合(MMFA)模块,有效解决了fMRI小样本数据深度学习的挑战,并在性别分类、年龄估计、行为测量预测和抑郁症诊断等任务中取得了最先进的性能。
Flying pigs~~29 分钟前
人工智能·rnn·深度学习·自然语言处理·循环神经网络
深度学习之循环神经网络RNN循环神经网络(Recurrent Neural Network)是一种专门处理序列数据的神经网络计算模型。
ホロHoro37 分钟前
人工智能·深度学习
深度学习路线你提到的这 4套其实是AI入门最经典的资源。但它们的定位完全不一样,如果顺序搞错,会非常痛苦。我给你一个 非常现实的评价 + 推荐学习顺序(很多AI从业者也是这么走的)。
XuecWu31 小时前
人工智能·深度学习·语言模型·自然语言处理
Karpathy的AutoResearch与Gemini三层 Agent 架构后的相通设计逻辑1. Karpathy刚开源的 autoresearch,跟 Google DeepMind 的三层 Agent 架构不谋而合。Google 论文里,Gemini Deep Think 负责提假设。autoresearch 里,agent 读 program.md 生成假设。LLM 都作为无约束的假设生成机。(这样做的本质在于发挥LLM输出的多样性,充分利用其创意能力)
_小雨林2 小时前
人工智能·深度学习·transformer
Transformer模型、整体结构,编码器与解码器内部组成此前的Seq2Seq模型通过Attention机制取得了一定提升,但由于整体结构仍依赖RNN,依然存在
放下华子我只抽RuiKe52 小时前
大数据·人工智能·深度学习·elasticsearch·机器学习·搜索引擎·全文检索
AI大模型开发-实战精讲:从零构建 RFM 会员价值模型(再进阶版:模拟数据 + 动态打分 + 策略落地)欢迎来到 RFM 模型再进阶版 教程。在这个版本中,我们不再满足于简单的“跑通代码”,而是要深入理解数据生成的逻辑、动态打分的数学原理以及如何将数据转化为商业决策。
V搜xhliang02462 小时前
人工智能·深度学习·机器学习·语言模型·自然语言处理
世界模型、强化学习PPOSAC世界模型和强化学习(特别是PPO和SAC算法)共同构成了让智能体在想象中预演、在交互中进化的核心能力。 如果说VLA是机器人的"大脑",那么世界模型就是大脑中构建的"虚拟现实沙盘",而强化学习(PPO/SAC) 则是让机器人在这个沙盘中自主学习的"训练法则"。下面我们来逐一拆解。 🌍 世界模型:在想象中预演未来的"虚拟现实沙盘" 世界模型的核心思想是让智能体在学习如何行动之前,先学习世界是如何运转的。它通过观察大量数据(如视频),尝试理解环境的动态规律,从而能够"想象"出不同动作可能导致的结果。
liliwoliliwo3 小时前
人工智能·深度学习
深度学习--CNN图像左边是10(亮色),右边是0(暗色),中间有一条垂直的敏感分界线(边缘),用特定的卷积核,让这条边缘"凸显"出来。
闻道且行之4 小时前
人工智能·pytorch·深度学习
PyTorch 深度学习开发 常见疑难报错与解决方案汇总本文旨在系统记录使用 PyTorch 进行深度学习开发过程中遇到的各类疑难报错与异常问题,详细梳理报错现象、排查思路及最终解决方案。一方面是为了复盘问题解决过程,沉淀技术经验;另一方面也能避免后续再次遇到同类问题时重复踩坑,提升开发效率。
Hali_Botebie4 小时前
深度学习·神经网络·cnn
条件卷积是什么卷积在看论文《CondLaneNet: a Top-to-down Lane Detection Framework Based on Conditional Convolution》时,作者说: we propose the conditional lane detection strategy based on conditional convolution – a convolution operation with dynamic kernel parameters [14, 40].
冰西瓜6004 小时前
人工智能·深度学习
深度学习的数学原理(十七)—— 归一化:BN与LN在深度学习模型的训练中,归一化技术是解决内部协变量偏移(ICS)、稳定梯度传递、加速收敛的关键手段。Batch Normalization(BN)和Layer Normalization(LN)作为最常用的两种归一化方法,分别适配CNN的图像任务和Transformer的序列任务,其数学设计与应用场景的差异直接决定了模型的训练效果。
bryant_meng4 小时前
人工智能·深度学习·计算机视觉·aigc·资讯
【Reading Notes】(7.11)Favorite Articles from 2024 November吞吐量最高飙升20倍!豆包大模型团队开源RLHF框架,破解强化学习训练部署难题(2024年11月01日)
Pyeako5 小时前
人工智能·python·rnn·深度学习·lstm·循环神经网络·遗忘门
深度学习--循环神经网络原理&局限&与LSTM解决方案目录一、为什么需要RNN?传统神经网络的痛点二、RNN核心原理:带“记忆”的网络结构三、RNN的致命局限:长期依赖问题
Wu_Dylan6 小时前
人工智能·深度学习·神经网络
液态神经网络系列(七) | 事件驱动与可变步长:把“稀疏计算”做到极致在前几章中,我们沉浸在液态神经网络(LNN)带来的“连续时间建模”的美感中。它优雅、鲁棒、且具备物理直觉。然而,工程师的直觉会立刻抛出一个现实的拷问:计算开销怎么办?
Alsian7 小时前
人工智能·深度学习·机器学习
Day 42 通道注意力@浙大疏锦行是最常用、最简单、效果最好的通道注意力。
大连好光景7 小时前
深度学习·机器学习
不同任务场景下的模型选择我的背景:我目前所知道名字的有很多模型,如: 1.线性模型与广义线性模型:线性回归、逻辑回归、线性SVM(支持向量机)、感知机。 2.基于距离的模型:K近邻(KNN)、K-Means聚类、层次聚类。 3.神经网络与深度学习:多层感知机(MLP)、卷积神经网络(CNN)、循环神经网络(RNN)。 4.主成分分析(PCA) 5.正则化模型:Lasso回归、Ridge回归、弹性网络。 6.树模型:决策树、随机森林、梯度提升树(GBDT、XGBoost、LightGBM、CatBoost)。 7.朴素贝叶斯 8.
Dxy12393102167 小时前
人工智能·pytorch·深度学习
深度学习的优雅收尾:PyTorch中PolynomialLR的终极指南在深度学习这场漫长的马拉松中,学习率(Learning Rate)不仅是起步时的爆发力,更是冲刺阶段的耐力。如果说初始学习率决定了模型能否跑起来,那么学习率调度器(Scheduler)则决定了模型能否在终点线前精准撞线。
tjl521314_217 小时前
人工智能·深度学习
深度学习与医学图像分割论文写作:统一符号、公式与 LaTeX 规范(附模板)在撰写深度学习尤其是医学图像分割方向的硕士或博士论文时,很多同学会把精力放在模型结构、实验结果和图表可视化上,却常常忽略一个非常影响论文质量的问题:
阿_旭8 小时前
人工智能·python·深度学习·风力机缺陷检测
基于YOLO26深度学习的风力机缺陷检测与语音提示系统【python源码+Pyqt5界面+数据集+训练代码】《博主简介》小伙伴们好,我是阿旭。 专注于计算机视觉领域,包括目标检测、图像分类、图像分割和目标跟踪等项目开发,提供模型对比实验、答疑辅导等。
jeffsonfu9 小时前
人工智能·深度学习·神经网络
学习率调度的艺术:从Warmup到余弦退火,掌握深度学习的训练节奏在深度学习的训练过程中,优化器的选择决定了“如何更新”参数,而学习率(Learning Rate) 则决定了“更新多大步”。作为整个训练过程中最重要的超参数之一,学习率直接决定了模型能否收敛以及收敛的质量。然而,使用固定的学习率训练模型往往不是最优选择:训练初期,我们希望大步快速接近最优解区域;训练后期,则需要小步微调,避免在最小值附近震荡。