神经网络

郝学胜-神的一滴3 小时前
人工智能·pytorch·python·深度学习·神经网络·机器学习
深度学习必学:PyTorch 神经网络参数初始化全攻略(原理 + 代码 + 选择指南)在深度学习模型训练中,参数初始化是决定模型能否收敛、训练效率高低、效果优劣的底层关键步骤。它看似只是给权重赋一个初始值,却直接影响梯度传播、模型对称性与最终性能。
jr-create(•̀⌄•́)3 小时前
人工智能·深度学习·神经网络
从零开始:手动实现神经网络识别手写数字(完整代码讲解)1.1 导入必要的工具基础解释: • torch:就像我们的"数学工具箱",提供了处理数字和矩阵的工具 • Data:用来管理和组织数据的工具 • numpy和pandas:处理表格数据的工具 1.2 设置计算设备
yu85939587 小时前
人工智能·深度学习·神经网络
神经网络遗传算法函数极值寻优(非线性函数极值)MATLAB 实现,结合神经网络和遗传算法来寻找非线性函数的极值。这种方法特别适合处理高维、非线性、多峰的复杂函数优化问题。
jr-create(•̀⌄•́)9 小时前
pytorch·深度学习·神经网络·算法
正则化和优化算法区别常见的优化算法:正则化方式:学习率调度器:正则化(如L1、L2、权重衰减):其首要目标是改变模型本身,通过限制模型的复杂度(具体表现为参数的大小),来提高其在未见数据(测试集)上的泛化能力,防止过拟合。
kishu_iOS&AI10 小时前
人工智能·深度学习·神经网络
深度学习 —— 神经网络(1)目录一、神经网络介绍全连接神经网络 - 最基础的(人工)神经网络1.人工神经网络的组成:2.网络层的 输入维度 和 输出维度
_寒潭雁影17 小时前
神经网络·三维重建·nerf·神经辐射场·三维表达
NeRF论文复现2 --- 原理及源码解析这篇文章将详细解析NeRF的原理,开始之前推荐下列的视频:【较真系列】讲人话-NeRF全解(原理+代码+公式)_哔哩哔哩_bilibili
机器学习之心17 小时前
人工智能·神经网络·matlab·电池soh估计·rul预测·bilstm神经网络
电池SOH估计和RUL预测,基于BiLSTM神经网络的锂电池健康状态估计和剩余寿命预测,MATLAB代码锂电池作为新能源储能系统的核心部件,广泛应用于电动汽车、电网储能和消费电子领域。随着循环充放电的进行,电池性能逐渐衰减,其健康状态(State of Health, SOH)和剩余使用寿命(Remaining Useful Life, RUL)的准确估计对于保障系统安全、优化维护策略至关重要。
昵称小白1 天前
人工智能·神经网络
从 ( y = wx + b ) 到神经网络:参数、loss、梯度到底怎么连起来(一)很多人一开始学深度学习,最容易卡住的不是代码,而是这些词:模型参数loss梯度反向传播参数更新这些词单独看都好像认识,但一连起来就会发虚。 尤其是刚接触 YOLO 的时候,经常会看到:
郝学胜-神的一滴1 天前
人工智能·pytorch·深度学习·神经网络·机器学习·软件构建·软件设计
神经网络参数初始化:从梯度失控到模型收敛的核心密码在深度学习的搭建与训练中,参数初始化是极易被忽略却决定模型生死的关键一步。它如同为神经网络搭建 “起点地基”,初始权重的微小差异,会在多层传播中被无限放大,直接引发梯度消失、梯度爆炸,或让模型陷入对称僵局、收敛缓慢。本文将从作用原理、7 种初始化方案、选型逻辑三个维度,彻底讲透参数初始化的核心逻辑,附代码与公式,帮你快速落地最优配置。
li星野1 天前
人工智能·深度学习·神经网络
《零基础搞懂神经网络 & 手写AI:从神经元公式到PyTorch实战》本文完整记录了从“神经元数学模型”到“PyTorch训练循环”的学习全过程,包含公式推导、反向传播原理、代码逐行拆解。全程无废话,适合AI初学者收藏反复看。
LaughingZhu1 天前
人工智能·经验分享·深度学习·神经网络·产品运营
Product Hunt 每日热榜 | 2026-04-18标语:Claude最强大的模型,专注于推理和智能编码。介绍:Claude Opus 4.7 是 Anthropic 公司当前最先进的公开可用人工智能模型,专为复杂推理和自主编码而设计。它能处理长期任务,准确执行指令,验证输出结果,并在编程、研究和工作流程中提供高质量的结果。
机器学习之心2 天前
神经网络·lstm神经网络·锂电池健康状态估计·电池soh估计·rul预测·剩余寿命预测
电池SOH估计和RUL预测 | 基于LSTM神经网络的锂电池健康状态估计和剩余寿命预测,MATLAB代码电池SOH估计和RUL预测,基于LSTM神经网络的锂电池健康状态估计和剩余寿命预测,MATLAB代码,该代码集围绕锂离子电池健康状态(SOH)估计与剩余寿命预测展开,采用基于数据驱动的LSTM神经网络方法。
渡我白衣2 天前
人工智能·深度学习·神经网络·学习·机器学习·迁移学习·caffe
触类旁通——迁移学习、多任务学习与元学习“智者千虑,必有一失;愚者千虑,必有一得。而真正的学习者,能从他人的‘一得’中,提炼出自己的‘千得’。”
Ai173163915792 天前
大数据·服务器·人工智能·神经网络·机器学习·计算机视觉·架构
GB200 NVL72超节点深度解析:架构、生态与产业格局一、超节点:AI算力基础设施的革命性演进 1. 超节点的概念与演进历程超节点(SuperPod)是英伟达率先提出的创新概念,特指在AI服务器集群中,通过超高速互联技术将16张以上GPU紧密连接形成的纵向扩展(Scale Up)系统。这一概念的诞生标志着AI计算从"分散作战"向"集团军作战"的根本性转变。
nap-joker2 天前
人工智能·神经网络·cnn
优化的局部定向韦伯图样与更快的区域卷积神经网络的集成,以增强医学图像检索和分类能力提出新的医学图像检索与分类框架 结合改进的图像模式描述符(OLDPW)与深度学习模型(改进的Faster-RCNN),用于提升医学图像的检索和分类性能。
jr-create(•̀⌄•́)2 天前
人工智能·深度学习·神经网络
Deep Learning入门---神经网络概念重点名词:第三章主要介绍了神经网络的基本概念、结构以及实现方法,重点包括以下内容:神经网络由输入层、隐藏层(中间层)和输出层构成,信号通过激活函数在层间传递。 感知机使用阶跃函数作为激活函数,而神经网络通常使用平滑的激活函数(如sigmoid函数),这是两者的主要区别。
熊猫钓鱼>_>3 天前
图像处理·人工智能·神经网络·生成对抗网络·ai·gan·博弈
生成对抗网络(GAN)通俗解析:AI如何学会“无中生有”?你是否想过,AI如何从一堆随机噪声中“变”出一张逼真的人脸?或者让马变成斑马、让夏天变成冬天?这些看似魔法的效果,背后都藏着一种叫生成对抗网络(GAN, Generative Adversarial Network)的AI技术。本文将用最通俗的语言,带你揭开GAN的神秘面纱,甚至教你如何用代码实现一个简单的GAN!
云和数据.ChenGuang3 天前
人工智能·深度学习·神经网络·目标检测·机器学习·自然语言处理·语音识别
机器学习之超参数是什么?超参数 = 训练前由人手动设置、模型自己不会学的参数模型参数(参数): 模型在训练过程中自己学到的东西 比如:权重、系数、分割点
程序员小嬛4 天前
人工智能·深度学习·神经网络·机器学习
中科院一区TOP:用于求解偏微分方程的物理信息神经网络前沿创新思路小伙伴们好,我是小嬛。专注于人工智能、计算机视觉、AI大模型领域相关分享研究。【目标检测、图像分类、图像分割、目标跟踪等项目都可做,相关领域论文辅导也可以找我;需要的可联系(备注来意)】
沅_Yuan4 天前
神经网络·matlab·cnn·回归预测·多输入单输出·se attention·itcn
基于 CNN-SE Attention-ITCN 多模态融合的多输入单输出回归预测模型【MATLAB】在时间序列分析与多维特征回归任务中,数据的特征提取能力与时序依赖捕获能力是决定预测精度的两大核心。传统的单一模型(如单纯的 CNN 或 RNN)往往难以平衡局部关联性、通道重要性以及长程时间依赖。本文将深度解析一种融合了卷积神经网络(CNN)、挤压-激励注意力机制(SE Attention)以及改进型时间卷积网络(ITCN)的复合架构,探讨其在多输入单输出(MISO)回归任务中的理论优势。