深度学习

肾透侧视攻城狮21 分钟前
深度学习·机器学习·tensorfl模型保存与加载·savedmodel 格式·hdf5 文件加载·选择性保存与加载·模型保存与加载高效化
《模型保存加载避坑指南:解锁SavedModel、HDF5与自定义对象的正确姿势》目录本篇技术博文摘要 🌟引言 📘上节回顾1.TensorFlow 模型保存与加载2.保存整个模型2.1SavedModel 格式及示例
2401_8288906442 分钟前
人工智能·python·深度学习·audiolm
通用唤醒词识别模型 - Wav2Vec2同 1 测试结果
gorgeous(๑>؂<๑)1 小时前
人工智能·深度学习·神经网络·机器学习·计算机视觉
【ICLR26-Oral Paper-字节跳动】推理即表征:重新思考图像质量评估中的视觉强化学习文章:Reasoning as Representation: Rethinking Visual Reinforcement Learning in Image Quality Assessment
狮子座明仔1 小时前
人工智能·深度学习·语言模型·自然语言处理
MemFly:当智能体的记忆学会了“断舍离“——信息瓶颈驱动的即时记忆优化📖 论文标题:MemFly: On-the-Fly Memory Optimization via Information Bottleneck
是小蟹呀^4 小时前
深度学习·分类·deepsrc·bssr
【论文比较】从 DeepSRC 到 BSSR:当“稀疏表示”遇上“深度学习”,算法是如何进化的?目录🌟 前言第一局:共同的敌人与“秘密武器”第二局:DeepSRC 的绝招——“更强的发动机”第三局:BSSR 的降维打击——“连底盘一起换”
挂科边缘15 小时前
人工智能·深度学习·yolo·目标检测·计算机视觉·yolov12
YOLOv12环境配置,手把手教你使用YOLOv12训练自己的数据集和推理(附YOLOv12网络结构图),全文最详细教程YOLO 系统尊嘟太卷了吧,YOLOv11 还没玩明白,YOLOv12 就重磅来袭,YOLOv12 是由纽约州立大学联合中科院在 2025年2月19 日发布,从 YOLOv12 论文题目我们大概就知道做了那些更新 ,下图是YOLOv12 在 COCO 数据集上的性能表现
deep_drink15 小时前
人工智能·pytorch·python·深度学习·3d·point cloud
【论文精读(三)】PointMLP:大道至简,无需卷积与注意力的纯MLP点云网络 (ICLR 2022)博主导读:   在 PointNet++ 之后,点云深度学习似乎陷入了一个“内卷”怪圈:大家都在拼命设计更复杂的局部聚合器 (Local Aggregator)。
风流倜傥唐伯虎15 小时前
人工智能·深度学习·cuda
N卡深度学习环境配置1. 打开CMD命令行,输入指令:nvidia-smi2. 查看输出结果中的驱动版本(示例:RTX 3050 laptop 对应驱动版本 526.56)。
DeepModel17 小时前
深度学习·学习·机器学习
第15章 多模态学习多模态学习(Multimodal Learning)是当前深度学习最活跃的前沿方向之一。它研究的核心问题是:如何让模型像人类一样,同时处理并理解来自不同来源的信息(比如看到图片、听到声音、读到文字)。
nudt_qxx17 小时前
人工智能·深度学习·transformer
讲透Transformer(三):Transformer 注意力机制详解与Qwen/DeepSeek近期改进Transformer 架构的核心是 Self-Attention 机制,它让模型能够捕捉序列中任意两个位置之间的依赖关系。原始 Transformer 采用 Encoder-Decoder 架构:
绒绒毛毛雨17 小时前
人工智能·深度学习·机器学习
多目标强化学习-英伟达:GDPO随着语言模型能力的不断提升,用户不仅期望模型能够给出准确的回答,还希望其行为能够在各种场景中契合不同的人类偏好。为实现这一目标,强化学习(RL)流程开始引入多种奖励,每种奖励代表一种不同的偏好,用于引导模型产生更符合预期的行为。然而,近期的相关工作在多奖励场景下,往往直接采用了Group Relative Policy Optimization(GRPO,组相对策略优化)方法,而没有对其适用性进行充分的检验。本文指出,直接将GRPO应用于不同奖励组合的归一化,会导致所有奖励信号在归一化后变得完全一致,从而
技术宅学长19 小时前
人工智能·深度学习·神经网络
什么是FFN层(Feed-Forward Network,前馈神经网络层)FFN层(Feed-Forward Network,前馈神经网络层) 是Transformer等大模型里的核心模块,常放在注意力层之后,负责对每个位置的向量做独立的非线性特征加工,是模型“深度理解语义”的关键。
Together_CZ20 小时前
人工智能·深度学习·ai·transformer·vit·vit-5·面向2020年代中期的视觉
ViT-5: Vision Transformers for The Mid-2020s—— 面向2020年代中期的视觉Transformer这篇题为《ViT-5:面向2020年代中期的视觉Transformer》的论文,核心研究内容是对经典的视觉Transformer架构进行系统性的现代化升级。其目标并非颠覆性重构,而是通过“组件级”的精细优化,在保留其基础结构的同时,显著提升性能、稳定性和泛化能力。
skywalk816320 小时前
python·深度学习·transformer
LTX-2 是一个基于 Transformer 的视频生成模型,能够根据文本描述生成高质量视频LTX-2 是一个基于 Transformer 的视频生成模型,能够根据文本描述生成高质量视频。要运行 LTX-2,通常需要以下步骤:
小雨中_21 小时前
人工智能·python·深度学习·机器学习·自然语言处理
3.7 GSPO:Group Sequence Policy Optimization(组序列策略优化)论文提出 GSPO(Group Sequence Policy Optimization),核心目标是:把大模型强化学习中“token 级动作、sequence 级奖励”的错位问题显式对齐,并进一步缓解 GRPO/PPO 在长序列训练时容易出现的高方差与不稳定(甚至不可逆崩溃)现象。
何伯特1 天前
人工智能·深度学习
深度学习中的三种偏移:协变量偏移、标签偏移与概念偏移有一家医疗初创公司,想要开发一种血液检测方法,用于诊断某种影响老年男性的疾病。他们需要从健康男性身上获取血样作为对照样本,但找健康的老年人实在太难了。
狮子座明仔1 天前
人工智能·深度学习·自然语言处理
SkillRL:让AI智能体学会“练功升级“的递归技能强化学习框架一句话总结:SkillRL 把智能体与环境交互产生的冗长轨迹蒸馏成紧凑、可复用的"技能卡片",并在强化学习训练过程中让技能库与策略共同进化,在 ALFWorld 和 WebShop 上超越 GPT-4o 达 41.9%。
小雨中_1 天前
人工智能·python·深度学习·机器学习·自然语言处理
3.5 ReMax:用 Greedy 作为基线的 REINFORCE + RLOO这一节先快速回顾:**策略梯度(Policy Gradient)**的核心是用“奖励相关的权重”去放大或缩小每一步动作的梯度,从而让高奖励轨迹更可能被复现、低奖励轨迹被抑制。随后再看 PPO 如何在策略梯度的框架上加入稳定训练的约束。最后进入 ReMax:它的目标和 GRPO 类似——不想训练 Critic/Value 网络,但又希望把训练稳定性做起来,于是它回到 REINFORCE,并把 baseline 设计成“同一个 prompt 下的 greedy 输出的奖励”。
DeepModel1 天前
深度学习·机器学习·回归算法
【回归算法】Ridge回归详解本内容专为本科生、研究生梳理,用通俗的语言讲解Ridge回归的核心原理、算法流程、实战案例及模型选型,同时明确其与Lasso、ElasticNet回归的核心区别,兼顾理论理解与代码落地,是学习正则化线性回归的核心内容。
肾透侧视攻城狮1 天前
人工智能·深度学习·tensorflow 模型调优·静态/动态学习率·批量大小选择·宽/深度调整技巧·dropout/早停法
《解锁TensorFlow模型潜力:超参数、网络结构、训练过程优化与高级技巧一站式精讲》目录本篇技术博文摘要 🌟引言 📘上节回顾1.TensorFlow 模型调优技巧1.1为什么需要模型调优