神经网络

无风听海6 小时前
人工智能·深度学习·神经网络
神经网络之计算图计算图是一种有向无环图(DAG, Directed Acyclic Graph),用于表示计算过程。图中的节点表示操作(函数或运算),边表示数据(张量)在操作之间的流动。
二向箔reverse6 小时前
人工智能·深度学习·神经网络
神经网络中的批归一化(BatchNorm)BatchNorm你可以把它想象成一个非常负责任的“整理员”,它在神经网络每一层的入口处工作。在没有 BatchNorm 之前,神经网络的每一层接收到的输入数据分布(比如数值的范围、均值、方差)总是在剧烈变化。因为前一层的参数在不断更新,它的输出分布自然也就变了。
老兵发新帖15 小时前
人工智能·深度学习·神经网络
主流神经网络快速应用指南下表整理了主流神经网络算法的核心特性,希望能帮助您建立清晰的选择框架。面对具体问题时,可以参考以下思路进行算法选型:
取酒鱼食--【余九】18 小时前
网络·人工智能·深度学习·神经网络·resnet·卷积神经网络·残差神经网络
深度学习经典网络解析:ResNet网络出自论文《Deep Residual Learning for Image Recognition》我们都知道增加网络的宽度和深度可以很好的提高网络的性能,深的网络一般都比浅的的网络效果好,比如说一个深的网络A和一个浅的网络B,那A的性能至少都能跟B一样,为什么呢?因为就算我们把B的网络参数全部迁移到A的前面几层,而A后面的层只是做一个等价的映射,就达到了B网络的一样的效果。一个比较好的例子就是VGG,该网络就是在AlexNet的基础上通过增加网络深度大幅度提高了网络性能。对于原来的网络,如果简单地增
jie*1 天前
人工智能·python·深度学习·神经网络·numpy·matplotlib
小杰深度学习(seventeen)——视觉-经典神经网络——MObileNetV31. 网络的背景 MobileNetV3 是 2019 年 Google 研究院在韩国首尔举行的 ICCV(International Conference on Computer Vision 国际计算机视觉大会) 上发表的, MobileNetV3提出了large和small两个版本(区别在于网络结构不同),paper中讲在MobileNetV3 Large在ImageNet分类任务上,较MobileNetV2,TOP1准确率提高了大约3.2%,时间减少了20%。与具有同等延迟的MobileNetV2
信息快讯2 天前
人工智能·神经网络·机器学习·光学
【机器学习赋能的智能光子学器件系统研究与应用】机器学习在光子学器件中的应用主要集中在设计优化、性能预测和实时控制等方面。通过数据驱动的方法,可以显著提升光子学器件的效率和功能。
lljss20202 天前
人工智能·神经网络·学习
5. 神经网络的学习神经网络的特征就是可以从数据中学习。所谓“从数据中学习”,是指 可以由数据自动决定权重参数的值。这是非常了不起的事情!因为如果所有 的参数都需要人工决定的话,工作量就太大了。在第2章介绍的感知机的例 子中,我们对照着真值表,人工设定了参数的值,但是那时的参数只有3个。 而在实际的神经网络中,参数的数量成千上万,在层数更深的深度学习中, 参数的数量甚至可以上亿,想要人工决定这些参数的值是不可能的。本章将 介绍神经网络的学习,即利用数据决定参数值的方法,并用Python实现对 MNIST手写数字数据集的学习。
jie*2 天前
人工智能·python·深度学习·神经网络·机器学习·tensorflow·lstm
小杰深度学习(fourteen)——视觉-经典神经网络——ResNetResNet的主要特点是采用了残差学习机制。在传统的神经网络中,每一层的输出都是直接通过一个非线性激活函数得到的。但在ResNet中,每一层的输出是通过一个“残差块”得到的,该残差块包含了一个快捷连接(shortcut)和几个卷积层。这样,在训练过程中,每一层只需要学习残差(即输入与输出之间的差异),而不是所有的信息。这有助于防止梯度消失和梯度爆炸的问题,从而使得网络能够训练得更深。 ResNet的网络结构相对简单,并且它的训练速度也比GoogLeNet快。这使得ResNet成为了在许多计算机视觉任务中的
jie*2 天前
人工智能·python·深度学习·神经网络·tensorflow·numpy·matplotlib
小杰深度学习(sixteen)——视觉-经典神经网络——MobileNetV21. 网络的背景 MobileNetV1 还不够轻量和高性能,为了让移动设备有更好的体验,Google 团队提出了 MobileNetV2 架构 MobileNetV2网络是由谷歌团队在2018年提出的,它相对于MobileNetV1而言,有着更高的准确率和更小的网络模型。 论文地址:https://arxiv.org/abs/1801.04381
MYX_3092 天前
pytorch·深度学习·神经网络·学习
第五章 神经网络的优化loss越小,代表预测值与真实值之间的差距越小,模型效果越好1.计算实际输出和目标之间的差距 2.为我们更新输出提供一定的依据(反向传播)grad
TGITCIC2 天前
人工智能·深度学习·神经网络·ai大模型·模型训练·训练模型·手搓模型
有趣的机器学习-利用神经网络来模拟“古龙”写作风格的输出器在探索大模型落地应用的旅程中,我们常常聚焦于其解决严肃商业问题的解决方案、策略,如:优化客服、生成报告、辅助决策……这些固然重要,但技术的魅力远不止于此。有时,跳出“实用主义”的框架,用一点“玩心”去触碰技术的边界,反而能更深刻地理解其内核。
算法打盹中2 天前
图像处理·神经网络·计算机视觉·cnn·图像分类
计算机视觉:卷积神经网络(CNN)图像分类从像素与色彩通道基础到特征提取、池化及预测卷积神经网络通过滤波器(或称核)从图像中提取特征,再将这些特征传入神经网络进行预测或输出。在深入探讨卷积神经网络之前,我们先详细了解图像的工作原理。
AI街潜水的八角2 天前
深度学习·神经网络·yolo
垃圾桶满溢检测和识别2:基于深度学习YOLOv12神经网络实现垃圾桶满溢检测和识别(含训练代码和数据集)基于深度学习YOLOv12神经网络实现垃圾桶满溢检测和识别,其能识别检测出3种垃圾桶满溢:names: ['overflow', 'garbage', 'garbage_bin']
学Linux的语莫2 天前
人工智能·神经网络·机器学习
机器学习-神经网络-深度学习不同层级之间使用不同的激活函数仿射变换:wx+b激活函数:构造非线性关系前向传播 → 计算损失 → 反向传播(引入梯度下降) → 更新参数 → 再次前向传播
高洁012 天前
python·深度学习·神经网络·transformer·知识图谱
大模型-去噪扩散概率模型(DDPM)采样算法详解大模型-去噪扩散概率模型(DDPM)采样算法详解一、背景知识 前向扩散过程 反向去噪过程二、前向扩散过程 公式定义 任意时刻 ( x_t ) 的闭式解
shimly1234562 天前
人工智能·神经网络·dnn·并行计算
(done) 并行计算 CS149 Lecture10 (DNN评估与优化)url: https://www.bilibili.com/video/BV1du17YfE5G?spm_id_from=333.788.videopod.sections&vd_source=7a1a0bc74158c6993c7355c5490fc600&p=10
盼小辉丶2 天前
人工智能·神经网络·生成对抗网络
Wasserstein GAN(WGAN)生成对抗网络 (Generative Adversarial Network, GAN) 能有效生成逼真新数据,是一种实用的生成模型。后续众多深度学习研究论文针对原始 GAN 的缺陷与局限提出了大量改进方案。我们知道,GAN 存在训练难度大、易发生模式崩溃等问题。模式崩溃是指生成器在损失函数已优化的情况下仍持续产生相同输出的现象。以MNIST手写数字数据集为例,发生模式崩溃时,由于数字 4 和 9 外形相似,生成器可能仅会输出这两类数字。Wasserstein GAN (WGAN) 通过采用 Wasser
永霖光电_UVLED7 天前
人工智能·神经网络·生成对抗网络
热壁MOCVD有助于GaN-on-AlN HEMT由林雪平大学领衔的国际合作团队正在突破氮化铝衬底上氮化镓高电子迁移率晶体管(GaN-on-AlN HEMT)的性能极限。这项创新性研究采用热壁金属有机化学气相沉积(MOCVD)技术,成功制备出兼具高载流子密度与创纪录二维电子气(2DEG)迁移率的超薄沟道器件。 "这就像在冰面上编织丝绸,"项目负责人万尼亚·达拉克切娃教授形象地描述道,"在AlN衬底上生长低缺陷密度、结构完美的超薄GaN层,其难度堪比在湍流中保持平衡。"这位来自林雪平大学与隆德大学的资深学者指出,团队突破的关键在于其独特的Aixtron热壁
XIAO·宝3 天前
人工智能·深度学习·神经网络
深度学习------专题《神经网络完成手写数字识别》目录一、为什么从 “手写数字识别” 开始?二、准备工作:数据与工具1. 数据集:MNIST2. 工具:PyTorch & 辅助库