神经网络

心动啊12110 小时前
人工智能·神经网络·dnn
深度神经网络1——梯度问题+标签数不够问题要解决一个复杂问题,可能要训练更深的神经网络,可能会10层及以上,每层包含数百个神经元,成千上万个连接。这样大的神经网络在训练的时候可能会遇到以下问题:
ViperL110 小时前
人工智能·深度学习·神经网络
[智能算法]可微的神经网络搜索算法-FBNet相较于基于强化学习的NAS,可微NAS能直接使用梯度下降更新模型结构超参数,其中较为有名的算法就是DARTS,其具体做法如下。
Hcoco_me15 小时前
人工智能·深度学习·神经网络
深度学习和神经网络之间有什么区别?深度学习是一个人工智能(AI)相关领域,用于教计算机以受人脑启发的方式处理数据。深度学习模型可以识别复杂的图片、文本和声音等数据模式,从而生成准确的见解和预测。
astragin16 小时前
人工智能·深度学习·神经网络
神经网络常见层速查表本文总结了深度学习中常见的“层 (Layer)”,包括简称、全称、使用场景和作用,便于快速学习。✍️ 一句话记忆:
蒋星熠16 小时前
人工智能·python·深度学习·神经网络·机器学习·卷积神经网络·transformer
深度学习实战指南:从神经网络基础到模型优化的完整攻略🌟 Hello,我是蒋星熠Jaxonic! 🌈 在浩瀚无垠的技术宇宙中,我是一名执着的星际旅人,用代码绘制探索的轨迹。 🚀 每一个算法都是我点燃的推进器,每一行代码都是我航行的星图。 🔭 每一次性能优化都是我的天文望远镜,每一次架构设计都是我的引力弹弓。 🎻 在数字世界的协奏曲中,我既是作曲家也是首席乐手。让我们携手,在二进制星河中谱写属于极客的壮丽诗篇!
大千AI助手19 小时前
人工智能·深度学习·神经网络·模型训练·dropout·正则化·过拟合
Dropout:深度学习中的随机丢弃正则化技术本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
DogDaoDao1 天前
人工智能·pytorch·深度学习·神经网络·大模型·剪枝·网络稀疏
神经网络稀疏化设计构架方法和原理深度解析当GPT-3以1750亿参数构建起AI模型的"巨无霸"时代,边缘设备却仍在为7B模型3秒以上的推理延迟、14GB的显存占用而挣扎——这种算力需求的指数级增长与硬件资源有限性的尖锐冲突,正成为AI产业落地的核心矛盾[1][2]。深入神经网络内部,我们会发现这种矛盾的根源在于普遍存在的参数冗余现象:权重分布呈现明显的长尾特性(大部分权重值接近零)、神经元激活在推理中常为零值、层间存在可合并的冗余结构,甚至训练时为保证稳定性而引入的过参数,在推理阶段已非必需[3]。
西猫雷婶1 天前
人工智能·pytorch·python·深度学习·神经网络·机器学习
pytorch基本运算-Python控制流梯度运算前序学习进程中,已经对pytorch基本运算-梯度运算:requires_grad_(True)和backward()进行了学习,了解了pytorch求导的基本运算方法。 今天继续学习,当计算进入循环时,就进入了Python控制流,如何对Python控制流进行梯度运算就是学习目标。
max5006001 天前
人工智能·python·深度学习·神经网络·随机森林·线性回归·transformer
基于多元线性回归、随机森林与神经网络的农作物元素含量预测及SHAP贡献量分析在本任务中,我们拥有一组关于农作物及其对应根系土的数据。数据包含土壤中各种元素的数值型测量值(自变量)以及农作物中两种特定元素的含量(因变量)。我们的核心目标是:
I'm a winner1 天前
开发语言·人工智能·python·深度学习·神经网络·microsoft·机器学习
第七章:AI进阶之------输入与输出函数(一)欢迎来到 Python 输入与输出函数的课程!在之前的课程中,我们已经学习了 Python 的基本数据类型、变量与赋值语句。今天,我们将学习如何与用户进行交互,通过输入函数获取用户的输入,以及通过输出函数向用户展示结果。
似乎很简单2 天前
深度学习·神经网络·cnn
卷积神经网络(CNN)目标:基础概念:概念:在整个神经网络过程中含有卷积运算的网络,就叫做卷积神经网络(CNN),是一个统称。
数智顾问2 天前
神经网络
从理论到落地:神经网络稀疏化设计构架中网络剪枝的深度实践与创新在“模型越大,性能越好”的传统认知被挑战的今天,神经网络稀疏化设计构架通过“少即是多”的哲学,重新定义了高效AI的边界。其中,**网络剪枝(Network Pruning)**作为实现稀疏化的关键技术,不仅能够压缩模型体积、降低推理延迟,还能通过去除噪声参数提升泛化能力。本文将从理论深度出发,结合工业级代码案例,系统解析网络剪枝的创新实践,并展望其在多模态大模型时代的应用潜力。
纪元A梦2 天前
神经网络·贪心算法·剪枝
贪心算法应用:神经网络剪枝详解神经网络剪枝(Neural Network Pruning)是一种模型压缩技术,旨在通过移除神经网络中对输出影响较小的连接、神经元或权重,从而减少模型的大小和计算复杂度,同时尽量保持模型的性能。
可触的未来,发芽的智生2 天前
人工智能·神经网络·算法·机器学习·架构
追根索源-神经网络的灾难性遗忘原因这是一个非常核心且重要的问题。我们来探讨一下神经网络中的“灾难性遗忘”现象及其解决方案。### 什么是灾难性遗忘(Catastrophic Forgetting)?
Yingjun Mo2 天前
人工智能·神经网络·算法·机器学习·概率论
1. 统计推断-基于神经网络与Langevin扩散的自适应潜变量建模与优化该框架之所以能具备上述特性,源于对 Langevin 采样算法与随机逼近方法的系统性分析。这两类技术在潜变量模型中的应用已在文献中得到广泛探讨,但这些工作大多忽略了 Langevin 算法的偏差。本文的创新在于将 Langevin 算法的有限样本偏差纳入优化过程的一部分(研究了 Langevin 算法在有限迭代步和有限样本条件下的偏差以及其与随机逼近方法之间的相互作用)。这一分析为现代统计与机器学习模型中常用的采样与优化技术提供了理论支撑。值得注意的是,这些结果是普遍性的,而不仅限于潜变量模型。
七芒星20233 天前
人工智能·pytorch·深度学习·神经网络·学习·cnn
ResNet(详细易懂解释):残差网络的革命性突破想象一下,你在学做一道超级复杂的菜,比如“佛跳墙”。传统的深度学习网络:就像一个死记硬背的学徒。师傅告诉他,必须严格按照步骤来:先处理A食材,再处理B,然后炖C,最后加D。如果步骤(网络层数)太多太深,他学到后面可能就蒙逼了:“我丢,我第一步是啥来着?为啥第三步要那样做?” 结果就是,他不仅没学会新菜,连之前会的炒青菜(简单特征)都忘了。这在神经网络里叫做退化问题(Degradation Problem):网络不是越深越好,深到一定程度,准确率不升反降
补三补四3 天前
人工智能·深度学习·神经网络
神经网络基本概念神经网络是一类仿生学算法,其由若干类神经处理单元组成:就是在一个感知机当中加入了激活函数的成分,而感知机则在笔者之前的博客有涉及:感知机相关文章
三之又三3 天前
人工智能·神经网络·cnn
卷积神经网络CNN-part5-NiN卷积神经网络CNN-part4-VGG-CSDN博客摘要:本文介绍了网络中的网络(NiN)结构,对比了AlexNet、VGG等经典CNN架构。NiN采用多层1x1卷积替代全连接层,通过NiN块(普通卷积+两个1x1卷积)构建网络,显著减少参数量。文中详细给出了NiN块和网络的PyTorch实现代码,展示了各层输出维度变化,并进行了Fashion-MNIST数据集训练。最后对比分析了不同CNN网络的内部结构特点,指出NiN在减少参数方面的优势,但也可能增加训练时间。
BFT白芙堂3 天前
人工智能·神经网络·机器学习·mvc·人机交互·科研教育机器人·具身智能平台
GRASP 实验室研究 论文解读 | 机器人交互:基于神经网络引导变分推理的快速失配估计在以人为中心的环境中,机器人与人类、周围环境或其他机器的物理交互需要兼顾柔顺性与安全性。尽管柔顺硬件能在一定程度上助力此类交互,但阻抗控制器作为扭矩控制机器人实现安全、被动响应接触并精准执行任务的关键,其有效性高度依赖机器人及所操作物体的精确动力学模型。
缘友一世4 天前
pytorch·深度学习·神经网络
PyTorch深度学习实战【10】之神经网络的损失函数其中:上面的函数就是逻辑回归的似然函数。对该概率 P P P取以e为底的对数,再由 l o g ( A ⋅ B ) = l o g A + l o g B log(A \cdot B)=logA + logB log(A⋅B)=logA+logB和 l o g A B = B l o g A logA^B=BlogA logAB=BlogA可以得到逻辑回归的对数似然函数: ln ⁡ P = ln ⁡ ∏ i = 1 m ( σ i y i ⋅ ( 1 − σ i ) 1 − y i ) = ∑ i = 1