神经网络

算法与编程之美35 分钟前
人工智能·pytorch·深度学习·神经网络·cnn
探究pytorch中多个卷积层和全连接层的输出方法1 问题问题1: 多个卷积层连续输出方法问题2: 多个卷积层加上多个全连接层的输出方法。2 方法问题1: 多个卷积层连续输出方法
化作星辰1 小时前
深度学习·神经网络·学习
深度学习_神经网络中最常用的学习率优化算法在梯度下降中加入“惯性”思想,让参数更新时考虑过去的方向,从而加快收敛、减少震荡。vt=βvt−1+(1−β)∇θJ(θt)v_t = \beta v_{t-1} + (1 - \beta) \nabla_\theta J(\theta_t)vt=βvt−1+(1−β)∇θJ(θt)
aini_lovee3 小时前
开发语言·神经网络·matlab
基于MATLAB实现粒子群优化(PSO)优化BP神经网络参考代码 利用PSO优化Bp算法 www.youwenfan.com/contentcsl/79536.html
Learn Beyond Limits7 小时前
人工智能·python·神经网络·算法·机器学习·ai·数据挖掘
Data Mining Tasks|数据挖掘任务-----------------------------------------------------------------------------------------------
leiming68 小时前
人工智能·神经网络·计算机视觉
ResNetLayer 类这段代码定义了一个 ResNetLayer 类,是 ResNet 网络结构中的一个“层级模块(stage)”,即由多个 ResNetBlock 堆叠而成的层。 我来帮你逐行详细解释代码逻辑和设计思路👇:
麦麦大数据8 小时前
人工智能·深度学习·神经网络·cnn·可视化·智能问答·病虫害识别
F045 vue+flask棉花病虫害CNN识别+AI问答知识neo4j 图谱可视化系统深度学习神经网络文章结尾部分有CSDN官方提供的学长 联系方式名片 文章结尾部分有CSDN官方提供的学长 联系方式名片 文章结尾部分有CSDN官方提供的学长 联系方式名片 文章结尾部分有CSDN官方提供的学长 联系方式名片 关注B站,有好处! B站号: 麦麦大数据
能来帮帮蒟蒻吗1 天前
人工智能·深度学习·神经网络
深度学习(2)—— 神经网络与训练想象一下,你的大脑里有860亿个"快递站点"——神经元。每个站点长得像个怪异的树杈子:中间一个圆鼓鼓的细胞体(像个仓库),顶上分叉出无数"树枝"(树突),底下一根长长的"传送带"(轴突)。当神经元"兴奋"时,它会做一件超酷的事:从传送带末端喷出一堆化学物质(神经递质),像快递包裹一样,扔给下一个站点的树枝。这些包裹可不是乱飞的——它们有"重量",有的兴奋("快开门!营业啦!"),有的抑制("关门下班!")。
kev_gogo1 天前
人工智能·深度学习·神经网络
【链式法则】神经网络中求导时w既是常数也是自变量的辨析(能否对常数求导?)在学习反向传播的过程中,对于如下这一步: 我有了些问题,可以在上图中看到,xk和Oj之间还有一个wjk,而xk是等于求和Ojwjk这些的。那么我想,是否可以把dxk/dOj变为dxk/dwjk * dwjk/dOj(为方便没用δ)?由此,我开始了思考。
化作星辰1 天前
人工智能·深度学习·神经网络
深度学习_神经网络_损失函数基础损失函数(Loss Function)用于衡量模型预测值与真实值之间的差距。它是模型训练中优化器(如 SGD、Adam)调整参数的依据。
8Qi82 天前
人工智能·深度学习·神经网络·生成对抗网络·图像生成·伪装图像生成
伪装图像生成之——GAN与Diffusion图像生成是人工智能领域的核心研究方向之一,其目标是让模型学会“创造”逼真的图像,而不仅仅是识别或分类。 近年来,生成模型广泛应用于艺术创作、虚拟场景、医学影像合成、图像修复、图像风格迁移,以及特殊任务如 伪装图像生成(Camouflage Image Generation)。
xier_ran2 天前
人工智能·深度学习·神经网络
深度学习:从零开始手搓一个浅层神经网络(Single Hidden Layer Neural Network)本文带你一步步用 Python 实现一个最基础的神经网络模型,理解前向传播、反向传播、梯度下降等核心概念,真正“动手”掌握深度学习的本质。
麻雀无能为力2 天前
人工智能·神经网络·cnn
现代卷积神经网络书中使用pytorch框架直接实现了这个网络vgg网络中使用了vgg块,vgg快中可以自定义卷积层数和输出通道,书中使用循环实现vgg块,可以很方便的定义这些参数。
合天网安实验室2 天前
深度学习·神经网络·机器学习
深度学习模型CNN识别恶意软件给组里的本科生讲一讲恶意软件,以及如何识别恶意软件。注:这里写得很简陋,只挑笔者不熟悉的部分写,具体学习还是得详看官方文档。
大千AI助手2 天前
人工智能·神经网络·llm·prompt·ppt·大千ai助手·预训练提示调优
PPT: Pre-trained Prompt Tuning - 预训练提示调优详解本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
进击的炸酱面2 天前
人工智能·深度学习·神经网络
第五章 神经网络神经网络是模拟人脑神经系统的计算模型,由大量简单的处理单元(神经元)相互连接而成。它能通过学习数据自动调整参数,完成分类、预测等任务。
wzx_Eleven2 天前
论文阅读·人工智能·神经网络
【论文阅读】Towards Fair Federated Learning via Unbiased Feature Aggregation为了解决联邦学习中的不公平(偏见)问题,论文提出了FedUFA,首个支持异构模型架构的公平联邦学习框架。该方法通过服务器端的无偏特征聚合机制,利用知识蒸馏和对抗训练消除客户端特征中的敏感属性信息,并且无需访问原始数据。
qzhqbb3 天前
神经网络·学习
神经网络—— 学习与感知器(细节补充)逻辑回归是机器学习中经典的二分类算法,虽然名字含“回归”,但本质是通过线性模型+非线性激活函数实现分类。下面从核心原理、公式推导到参数优化进行详细讲解:
平和男人杨争争3 天前
论文阅读·人工智能·神经网络·机器学习
SNN(TTFS)论文阅读——LC-TTFS论文的最终数学目标是证明:在 LC−TTFSLC-TTFSLC−TTFS 算法的约束下,ANN 和 SNN 之间存在一个完美的、逐层传递的映射关系。
这儿有一堆花3 天前
人工智能·深度学习·神经网络
向工程神经网络对二进制加法的巧妙解决方案当研究者把“二进制加法”这个小学算术题交给一个小小的前馈神经网络时,意外发生了:模型并没有死记硬背,而是自发“长”出了类似半加器 / 全加器的内部结构。把它剖开看,就像用示波器探针扎进电路板:某些隐层单元趋近 XOR(求和位),另一些单元近似 AND/OR(进位位)。这篇文章尝试用一种直白、可复现实验的方式,把这段“神经网络学会加法”的故事讲清楚,并把“它是怎么做到的”一步步逆向出来。
撬动未来的支点3 天前
人工智能·神经网络
【AI】拆解神经网络“技术高墙”:一条基于“根本原理-补丁理论-AI部署”哲学的学习路径学习一项理论或技术既要钻研细节,也要总体把握脉络方向,明确自己要朝那个方向前进,否则容易走弯路,人生苦短,早学懂早打好基础,就会有更多时间去做一些创新的工作。下面进入正文: