深度学习

bst@微胖子10 小时前
人工智能·深度学习
PyTorch深度学习框架之基础实战二待完善。。。。。。
狮子座明仔13 小时前
人工智能·深度学习·自然语言处理
体验式强化学习:让模型学会“吃一堑长一智“一句话总结:论文提出 ERL(Experiential Reinforcement Learning),在强化学习中嵌入"尝试-反思-改进"的显式循环,将稀疏反馈转化为结构化的行为修正,在复杂任务上实现了高达 81% 的性能提升。
童园管理札记14 小时前
经验分享·深度学习·职场和发展·学习方法·微信公众平台
【记录模板】大班科学小游戏观察记录(盐主题:《会变魔术的盐》)基本信息- 观察对象:大班幼儿(5-6岁)- 观察时间:XX年XX月XX日- 活动名称:科学小游戏《会变魔术的盐》
CelestialYuxin16 小时前
人工智能·深度学习·算法
A.R.I.S.系统:YOLOx在破碎电子废料分拣中的新探索2026年2月发布的A.R.I.S.系统,尝试以YOLOx架构解决破碎电子废弃物的低成本分拣难题。本文梳理其技术背景、核心指标,并与现有方案进行客观对比。
ppppppatrick18 小时前
深度学习·考研·cnn
【深度学习基础篇】手算卷积神经网络:13道经典题全解析(考研/面试必备)卷积神经网络是深度学习的核心,而手算卷积尺寸和参数量是理解其原理的第一步。本文整理了13道经典手算题,先给出题目供读者自测,再提供详细解答和关键公式总结,帮助大家彻底掌握卷积计算。
狮子座明仔18 小时前
人工智能·gpt·深度学习·microsoft·语言模型·自然语言处理
REDSearcher:如何用30B参数的小模型,在深度搜索上击败GPT-o3和Gemini?论文标题:REDSearcher: A Scalable and Cost-Efficient Framework for Long-Horizon Search Agents
万里鹏程转瞬至19 小时前
论文阅读·深度学习·aigc
论文阅读 | SLA:sparse–linear attion视频生成95%稀疏度FLOPs降低20倍论文地址:https://arxiv.org/abs/2509.24006 项目地址:https://github.com/thu-ml/SLA 发表时间:2025年11月19日
肾透侧视攻城狮19 小时前
深度学习·机器学习·tensorfl模型保存与加载·savedmodel 格式·hdf5 文件加载·选择性保存与加载·模型保存与加载高效化
《模型保存加载避坑指南:解锁SavedModel、HDF5与自定义对象的正确姿势》目录本篇技术博文摘要 🌟引言 📘上节回顾1.TensorFlow 模型保存与加载2.保存整个模型2.1SavedModel 格式及示例
2401_8288906420 小时前
人工智能·python·深度学习·audiolm
通用唤醒词识别模型 - Wav2Vec2同 1 测试结果
gorgeous(๑>؂<๑)21 小时前
人工智能·深度学习·神经网络·机器学习·计算机视觉
【ICLR26-Oral Paper-字节跳动】推理即表征:重新思考图像质量评估中的视觉强化学习文章:Reasoning as Representation: Rethinking Visual Reinforcement Learning in Image Quality Assessment
狮子座明仔21 小时前
人工智能·深度学习·语言模型·自然语言处理
MemFly:当智能体的记忆学会了“断舍离“——信息瓶颈驱动的即时记忆优化📖 论文标题:MemFly: On-the-Fly Memory Optimization via Information Bottleneck
是小蟹呀^1 天前
深度学习·分类·deepsrc·bssr
【论文比较】从 DeepSRC 到 BSSR:当“稀疏表示”遇上“深度学习”,算法是如何进化的?目录🌟 前言第一局:共同的敌人与“秘密武器”第二局:DeepSRC 的绝招——“更强的发动机”第三局:BSSR 的降维打击——“连底盘一起换”
挂科边缘1 天前
人工智能·深度学习·yolo·目标检测·计算机视觉·yolov12
YOLOv12环境配置,手把手教你使用YOLOv12训练自己的数据集和推理(附YOLOv12网络结构图),全文最详细教程YOLO 系统尊嘟太卷了吧,YOLOv11 还没玩明白,YOLOv12 就重磅来袭,YOLOv12 是由纽约州立大学联合中科院在 2025年2月19 日发布,从 YOLOv12 论文题目我们大概就知道做了那些更新 ,下图是YOLOv12 在 COCO 数据集上的性能表现
deep_drink1 天前
人工智能·pytorch·python·深度学习·3d·point cloud
【论文精读(三)】PointMLP:大道至简,无需卷积与注意力的纯MLP点云网络 (ICLR 2022)博主导读:   在 PointNet++ 之后,点云深度学习似乎陷入了一个“内卷”怪圈:大家都在拼命设计更复杂的局部聚合器 (Local Aggregator)。
风流倜傥唐伯虎1 天前
人工智能·深度学习·cuda
N卡深度学习环境配置1. 打开CMD命令行,输入指令:nvidia-smi2. 查看输出结果中的驱动版本(示例:RTX 3050 laptop 对应驱动版本 526.56)。
DeepModel2 天前
深度学习·学习·机器学习
第15章 多模态学习多模态学习(Multimodal Learning)是当前深度学习最活跃的前沿方向之一。它研究的核心问题是:如何让模型像人类一样,同时处理并理解来自不同来源的信息(比如看到图片、听到声音、读到文字)。
nudt_qxx2 天前
人工智能·深度学习·transformer
讲透Transformer(三):Transformer 注意力机制详解与Qwen/DeepSeek近期改进Transformer 架构的核心是 Self-Attention 机制,它让模型能够捕捉序列中任意两个位置之间的依赖关系。原始 Transformer 采用 Encoder-Decoder 架构:
绒绒毛毛雨2 天前
人工智能·深度学习·机器学习
多目标强化学习-英伟达:GDPO随着语言模型能力的不断提升,用户不仅期望模型能够给出准确的回答,还希望其行为能够在各种场景中契合不同的人类偏好。为实现这一目标,强化学习(RL)流程开始引入多种奖励,每种奖励代表一种不同的偏好,用于引导模型产生更符合预期的行为。然而,近期的相关工作在多奖励场景下,往往直接采用了Group Relative Policy Optimization(GRPO,组相对策略优化)方法,而没有对其适用性进行充分的检验。本文指出,直接将GRPO应用于不同奖励组合的归一化,会导致所有奖励信号在归一化后变得完全一致,从而
技术宅学长2 天前
人工智能·深度学习·神经网络
什么是FFN层(Feed-Forward Network,前馈神经网络层)FFN层(Feed-Forward Network,前馈神经网络层) 是Transformer等大模型里的核心模块,常放在注意力层之后,负责对每个位置的向量做独立的非线性特征加工,是模型“深度理解语义”的关键。
Together_CZ2 天前
人工智能·深度学习·ai·transformer·vit·vit-5·面向2020年代中期的视觉
ViT-5: Vision Transformers for The Mid-2020s—— 面向2020年代中期的视觉Transformer这篇题为《ViT-5:面向2020年代中期的视觉Transformer》的论文,核心研究内容是对经典的视觉Transformer架构进行系统性的现代化升级。其目标并非颠覆性重构,而是通过“组件级”的精细优化,在保留其基础结构的同时,显著提升性能、稳定性和泛化能力。