cnn

Honeysea_7020 小时前
人工智能·ai·cnn·tensorflow·keras
用 TensorFlow和Keras 搭建CNN的经典案例解析~使用 TensorFlow 和 Keras 搭建 卷积神经网络(CNN) 进行 MNIST 手写数字分类 的示例
机器学习之心2 天前
matlab·分类·cnn·gaf-cnn·dbo-lssvm
GAF-CNN-DBO-LSSVM故障诊断/分类预测(Matlab)本研究提出的GAF-CNN-DBO-LSSVM方法,将格拉姆角场、卷积神经网络、蜣螂算法和最小二乘支持向量机有机结合,旨在解决传统方法在处理复杂故障信号时的难题。该方法能够有效将一维故障数据信号转为二维图像,通过卷积神经网络自适应提取故障特征,利用蜣螂算法优化最小二乘支持向量机参数,提高故障诊断的准确性和效率。注意程序和数据放在一个文件夹,运行环境为Matlab2023b及以上。代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。可在下载区获取数据和程序内容。
DesolateGIS2 天前
数学建模·matlab·cnn
数学建模:MATLAB卷积神经网络卷积神经网络是一种处理具有网格结构数据的深度学习模型,由输入层、卷积层、池化层、全连接层、输出层组成。
一面千人3 天前
pytorch·深度学习·cnn·图像分类·模型优化·cifar-10·调试经验·前沿趋势
从零开始:基于 PyTorch 的图像分类模型摘要:本文详细记录了使用 PyTorch 从零搭建一个图像分类模型的过程,涵盖卷积神经网络(CNN)、数据预处理、模型设计、训练调试与优化。通过对 CIFAR-10 数据集的处理实践,结合经典文献和 2025 年最新研究趋势,深入探讨了技术细节,并辅以完整实践源码的过程和结论。我选择用 PyTorch 搭建图像分类模型,既源于对深度学习的兴趣,也因为它在 2025 年的技术社区中热度不减。通过这次实践,我希望掌握 CNN 的核心原理,同时记录过程,为其他初学者提供参考。
Luis Li 的猫猫3 天前
人工智能·算法·机器学习·matlab·cnn
机器学习--卷积神经网络原理及MATLAB回归实现卷积神经网络(Convolutional Neural Networks,缩写为CNNs或ConvNets)是一类专门为处理具有网格结构数据(如图像、音频)而设计的深度学习模型,在图像识别、目标检测、语义分割等诸多领域取得了巨大成功。
月落星还在3 天前
人工智能·学习·cnn
AI学习——卷积神经网络(CNN)入门作为人类,我们天生擅长“看”东西:一眼就能认出猫狗、分辨红绿灯、读懂朋友的表情……但计算机的“眼睛”最初是一片空白。直到卷积神经网络(CNN)的出现,计算机才真正开始理解图像。今天,我们就用最通俗的语言,揭开CNN的神秘面纱。
liruiqiang056 天前
人工智能·深度学习·神经网络·机器学习·cnn
卷积神经网络 - 从全连接到卷积在全连接前馈神经网络中,如果第 𝑙 层有 𝑀𝑙 个神经元,第 𝑙 − 1 层有 𝑀𝑙−1 个 神经元,连接边有 𝑀𝑙 × 𝑀(𝑙−1) 个,也就是权重矩阵有 𝑀𝑙 × 𝑀(𝑙−1) 个参数。当 𝑀𝑙 和 𝑀(𝑙−1) 都很大时,权重矩阵的参数非常多,训练的效率会非常低。
梦想画家7 天前
pytorch·分类·cnn
PyTorch 系列教程:使用CNN实现图像分类图像分类是计算机视觉领域的一项基本任务,也是深度学习技术的一个常见应用。近年来,卷积神经网络(cnn)和PyTorch库的结合由于其易用性和鲁棒性已经成为执行图像分类的流行选择。
阿拉保7 天前
人工智能·神经网络·cnn
卷积神经网络(知识点)由两种方法:1.增大步长:卷积的时候不是一次一步,而是一次多步,类似一张图片,在原来的像素基础上,每隔一个取一个像素点。
天行者@8 天前
笔记·深度学习·cnn
卷积神经网络(笔记02)池化操作通过对输入特征图进行下采样,减少特征图的空间尺寸。常见的池化方式有最大池化(Max Pooling)和平均池化(Average Pooling)。以最大池化为例,使用一个固定大小的池化窗口在特征图上滑动,每次取窗口内的最大值作为输出。例如,对于一个 2×2 的池化窗口,它会将输入特征图的尺寸在高度和宽度上都缩小为原来的一半,从而显著降低数据量。
机器学习之心8 天前
matlab·cnn·lstm·cnn-lstm
Matlab实现RIME-CNN-LSTM-Multihead-Attention多变量多步时序预测1.Matlab实现RIME-CNN-LSTM-Multihead-Attention霜冰算法优化卷积长短期记忆神经网络融合多头注意力机制多变量多步时间序列预测,算法优化学习率,卷积核大小,神经元个数,以最小MAPE为目标函数; CNN卷积核大小:卷积核大小决定了CNN网络的感受野,即每个卷积层可以捕获的特征的空间范围。选择不同大小的卷积核可以影响模型的特征提取能力。较小的卷积核可以捕获更细粒度的特征,而较大的卷积核可以捕获更宏观的特征。 LSTM神经元个数:LSTM是一种适用于序列数据的循环神经网络,其
紫雾凌寒10 天前
人工智能·计算机视觉·cnn·transformer·具身智能·ei
计算机视觉|首次写入政府工作报告!这个科技新词“具身智能”到底是什么?具身智能(Embodied Intelligence) 是人工智能领域的关键研究方向,强调智能体通过物理实体与环境交互实现认知和智能行为。与传统人工智能基于静态数据和符号推理不同,具身智能依赖动态感知与动作的协同作用。智能体通过传感器(如摄像头、激光雷达、触觉传感器)采集环境信息,经过内部决策生成动作,并在执行中实时调整,形成 “感知-思考-行动” 的闭环。例如,人形机器人在室内导航时,利用摄像头捕捉墙壁和家具布局,结合激光雷达测量距离,决策移动方向并避开障碍物。这一过程模拟了人类通过视觉、听觉和肢体协作
天行者@10 天前
人工智能·神经网络·cnn
卷积神经网络可视化卷积神经网络(CNN)的可视化是理解模型行为、调试性能和解释预测结果的重要工具。以下从技术原理、实现方法和应用场景三个维度,系统梳理 CNN 可视化的核心技术,并提供代码示例和前沿方向分析:
阿正的梦工坊10 天前
人工智能·神经网络·cnn
卷积神经网络(CNN):深度解析其原理与特性作为一名深度学习研究者,你可能对Transformer架构的自注意力机制和序列建模能力了如指掌,但对计算机视觉领域的传统霸主——卷积神经网络(Convolutional Neural Network,简称CNN)的内部机制或许了解不深。CNN凭借其独特的结构设计,在图像分类、目标检测等领域长期占据统治地位。本篇博客将深入剖析CNN的原理,聚焦其核心操作与归纳偏置(Inductive Bias),并从数学与工程角度为你揭示其为何如此强大。文章将假设你对深度学习有一定基础,但对CNN的具体细节尚待探索。
天行者@10 天前
人工智能·笔记·深度学习·神经网络·机器学习·cnn·卷积神经网络
卷积神经网络(笔记03)卷积层在提取图像特征时,会产生大量的特征图。随着网络深度的增加,特征图的尺寸可能会变得非常大,这会导致计算量和内存需求急剧增加。池化层可以对特征图进行下采样,减少特征图的空间尺寸,从而降低计算量和内存消耗。
Start_Present11 天前
pytorch·python·深度学习·神经网络·分类·cnn
Pytorch 第十回:卷积神经网络——DenseNet模型本次开启深度学习第十回,基于Pytorch的DenseNet卷积神经网络模型。这是分享的第五个卷积神经网络模型。在第九回当中,分享了ResNet模型,该模型解决了梯度消失和网络退化的问题。本回的DenseNet模型在某种程度上来说是ResNet模型的升级版,接下来给大家分享具体思路。 本次学习,借助的平台是PyCharm 2024.1.3,python版本3.11 numpy版本是1.26.4,pytorch版本2.0.0+cu118,d2l的版本是1.0.3
KangkangLoveNLP11 天前
人工智能·深度学习·神经网络·算法·机器学习·自然语言处理·cnn
从Swish到SwiGLU:激活函数的进化与革命,qwen2.5应用的激活函数SwiGLU(Swish-Gated Linear Unit)是一种结合了Swish激活函数和GLU(Gated Linear Unit)门控机制的激活函数,广泛应用于现代大型语言模型中
天行者@12 天前
人工智能·深度学习·cnn
卷积神经网络(笔记01)视觉处理三大任务:分类、目标检测、图像分割CNN网络主要有三部分构成:卷积层(Convolutional Layer)、池化层(Pooling Layer)和激活函数