神经网络

曼城周杰伦4 小时前
人工智能·pytorch·神经网络·microsoft·自然语言处理·nlp
自然语言处理:第七十二章 微软推出超越自己GraphRAG的LazyGraphRAG本人项目地址大全:Victor94-king/NLP__ManVictor: CSDN of ManVictor
不灭蚊香6 小时前
深度学习·神经网络·yolo·目标检测·计算机视觉·cnn
YOLOv2 (You Only Look Once Version 2)YOLOv2 (You Only Look Once Version 2),也称为 YOLO9000,是目标检测算法 YOLO(You Only Look Once)系列的第二个版本。它在 YOLOv1 的基础上进行了很多改进,以提高检测精度,特别是在小物体检测和多类别检测上取得了显著的进展。YOLOv2 引入了更多的技术细节,并优化了网络结构,进一步提高了检测速度和准确性。
搏博8 小时前
人工智能·神经网络·cnn
卷积神经网络(CNN)的层次结构卷积神经网络(CNN)是一种以其处理图像和视频数据的能力而闻名的深度学习模型,其基本结构通常包括以下几个层次,每个层次都有其特定的功能和作用:
墨绿色的摆渡人9 小时前
人工智能·python·深度学习·神经网络
用 Python 从零开始创建神经网络(十四):L1 和 L2 正则化(L1 and L2 Regularization)正则化方法旨在降低泛化误差。我们首先讨论的正则化形式是L1正则化和L2正则化。L1和L2正则化用于计算一个数值(称为惩罚项),将其添加到损失值中,以惩罚模型中权重和偏置过大的情况。过大的权重可能表明某个神经元试图记忆数据元素;一般认为,让多个神经元共同对模型输出做出贡献要比依赖少数几个神经元更好。
IT古董10 小时前
人工智能·神经网络·算法·机器学习
【机器学习】Sigmoid函数在深层神经网络中存在梯度消失问题,如何设计一种改进的Sigmoid激活函数,既能保持其概率预测优势,又能避免梯度消失?为了解决 Sigmoid 函数在深层神经网络中的梯度消失问题,可以设计一种改进的 Sigmoid 激活函数,使其同时具备以下特性:
铖铖的花嫁11 小时前
pytorch·rnn·神经网络·cnn·gru·lstm
基于 RNN(GRU, LSTM)+CNN 的红点位置检测(pytorch)需要在图片精确识别三跟红线所在的位置,并输出这三个像素的位置。其中,每跟红线占据不止一个像素,并且像素颜色也并不是饱和度和亮度极高的红黑配色,每个红线放大后可能是这样的。
江畔柳前堤13 小时前
深度学习·神经网络·opencv·目标检测·机器学习·计算机视觉·数据挖掘
42_GAN网络详解(2)---常见的GAN条件生成对抗网络(Conditional Generative Adversarial Networks, CGAN)是生成对抗网络(Generative Adversarial Networks, GAN)的一种变体,由Mehdi Mirza和Simon Osindero在2014年提出。CGAN的主要改进在于引入了额外的条件信息(condition),以指导生成过程,使得生成器可以根据特定条件来创建数据样本。
忆~遂愿14 小时前
人工智能·python·深度学习·神经网络·机器学习·copilot·rxjava
探索云开发Copilot,AI如何重塑开发流程?刚接触 Copilot 时, Copilot 的 AI 低代码生成功能让我眼前一亮,使得我开发变得更简洁高效。
墨绿色的摆渡人1 天前
人工智能·python·深度学习·神经网络
用 Python 从零开始创建神经网络(十二):验证数据(Validation Data)在优化章节中,我们使用超参数调优来选择能够带来更好结果的超参数,但还有一个问题需要澄清:我们不应该使用测试数据集来检查不同的超参数。如果这样做,我们实际上是在将模型手动优化到测试数据集上,从而使模型偏向于对这些数据过拟合,而测试数据集本应仅用于最终检查模型是否训练和泛化得当。换句话说,如果我们调整网络的参数以适配测试数据,那么本质上就是在测试数据上优化网络,这是一种过拟合测试数据的方式。
禁默1 天前
神经网络·信号处理
2024年信号处理与神经网络应用会会议时间:2024年12月13-15日会议地点:中国武汉会议官网:www.spnna.org2024年信号处理与神经网络应用(SPNNA 2024)将于2024年12月13日至15日在中国武汉召开。在为全球研究人员、工程师、学者和行业专业人士提供一个分享最新研究成果、技术创新和实践经验的国际平台。涵盖信号处理和神经网络应用的多个方面,包括但不限于信号分析与处理、图像和视频处理、深度学习、机器学习、模式识别和大数据处理等领域。
炸膛坦客1 天前
人工智能·pytorch·神经网络
神经网络入门实战:(六)PyTorch 中的实用工具 SummaryWriter 和 TensorBoard 的说明这里先讲解 SummaryWriter ,TensorBoard 会在第二大点进行说明。SummaryWriter 是 PyTorch 中的一个非常实用的工具,它主要用于将深度学习模型训练过程中的各种日志和统计数据记录下来,并可以与 TensorBoard 配合使用,实现数据的可视化。以下是对 SummaryWriter 库的详细介绍:
Peter11467178501 天前
人工智能·pytorch·笔记·python·深度学习·神经网络
借助nntools的模型训练(图像去噪任务, PyTorch)在跑通开源代码的过程中,一直难以找到很合适的代码框架或代码模板,尤其对于初学者而言是不小的挑战。本人在跑代码的过程中,发现在GitHub上有一个辅助训练过程的模板。这篇文章主要记录它的使用方法,并标记来源。
炸膛坦客1 天前
人工智能·神经网络·分类
神经网络入门实战:(九)分类问题 → 神经网络模型搭建模版和训练四步曲每一层基本都有权重和偏置,可以仔细看官方文档。pytorch 官网的库:torch.nn — PyTorch 2.5 documentation
抓哇能手2 天前
人工智能·python·深度学习·神经网络·算法·机器学习
机器学习-神经网络(BP神经网络前向和反向传播推导)神经网络(neural networks)方面的研究很早就已出现,今天“神经网络”已是一个相当大的、多学科交叉的学科领域.各相关学科对神经网络的定义多种多样,本书采用目前使用得最广泛的一种,即“神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应”[Kohonen,1988]. 我们在机器学习中谈论神经网络时指的是“神经网络学习”,或者说,是机器学习与神经网络这两个学科领域的交叉部分.
程序猿阿伟2 天前
开发语言·c++·神经网络
《C++ 与神经网络:自动微分在反向传播中的高效实现之道》在深度学习蓬勃发展的今天,神经网络成为了众多领域的核心技术驱动力。而反向传播算法作为训练神经网络的关键手段,其背后的自动微分技术的高效实现尤为重要,特别是在 C++ 这样追求性能与内存控制极致的编程语言环境下。
不如语冰2 天前
人工智能·python·深度学习·神经网络
深度学习的python基础(1)张量在形式上就是多维数组,例如标量就是0维张量,向量就是一维张量,矩阵就是二维张量,而三维张量就可以想象RGB图片,每个channel是一个二维的矩阵,共有三个channel,还可以考虑更多。
不灭蚊香2 天前
深度学习·神经网络·yolo·目标检测·计算机视觉
YOLOv1 (You Only Look Once)YOLO (You Only Look Once) 是一种经典的目标检测算法,旨在通过一个统一的卷积神经网络(CNN)进行目标检测,最大化检测速度并保持较高的精度。YOLO 在目标检测领域产生了巨大的影响,并且经过了多个版本的迭代。下面是 YOLOv1(YOLO 的第一版)的详细介绍:
小毕超2 天前
人工智能·神经网络·numpy
使用Numpy从零实现神经网络前向传播、反向传播、迭代训练等主要过程神经网络主要包含两大核心步骤,前向传播获得预测的结果,反向传播根据预测值与真实值的损失计算每个权重和偏置的梯度,然后根据梯度更新参数,以此往复便是训练的过程。
EterNity_TiMe_2 天前
人工智能·python·深度学习·神经网络·机器学习
【论文复现】从零开始搭建图像去雾神经网络📝个人主页🌹:Eternity._ 🌹🌹期待您的关注 🌹🌹本文复现了一种简单而有效的基于集成学习的双分支非均匀去雾神经网络。该方法使用一个双分支神经网络分别处理上述问题,然后通过一个可学习的融合尾映射它们的不同特征。 论文地址:https://arxiv.org/pdf/2104.08902.pdf
好评笔记2 天前
人工智能·深度学习·神经网络·机器学习·生成对抗网络·aigc·gan
深度学习笔记——生成对抗网络GAN本文详细介绍早期生成式AI的代表性模型:生成对抗网络GAN。生成对抗网络(Generative Adversarial Network, GAN)是一种生成模型,由 Ian Goodfellow 等人于 2014 年提出。GAN 通过两个网络——生成器(Generator)和判别器(Discriminator)之间的对抗训练,使得生成器能够生成逼真的数据,从而被判别器难以区分。GAN 已广泛应用于图像生成、图像修复、风格迁移、文本生成等任务。