技术栈
神经网络
_寒潭雁影
4 小时前
神经网络
·
三维重建
·
nerf
·
神经辐射场
·
三维表达
NeRF论文复现2 --- 原理及源码解析
这篇文章将详细解析NeRF的原理,开始之前推荐下列的视频:【较真系列】讲人话-NeRF全解(原理+代码+公式)_哔哩哔哩_bilibili
机器学习之心
4 小时前
人工智能
·
神经网络
·
matlab
·
电池soh估计
·
rul预测
·
bilstm神经网络
电池SOH估计和RUL预测,基于BiLSTM神经网络的锂电池健康状态估计和剩余寿命预测,MATLAB代码
锂电池作为新能源储能系统的核心部件,广泛应用于电动汽车、电网储能和消费电子领域。随着循环充放电的进行,电池性能逐渐衰减,其健康状态(State of Health, SOH)和剩余使用寿命(Remaining Useful Life, RUL)的准确估计对于保障系统安全、优化维护策略至关重要。
昵称小白
16 小时前
人工智能
·
神经网络
从 ( y = wx + b ) 到神经网络:参数、loss、梯度到底怎么连起来(一)
很多人一开始学深度学习,最容易卡住的不是代码,而是这些词:模型参数loss梯度反向传播参数更新这些词单独看都好像认识,但一连起来就会发虚。 尤其是刚接触 YOLO 的时候,经常会看到:
郝学胜-神的一滴
21 小时前
人工智能
·
pytorch
·
深度学习
·
神经网络
·
机器学习
·
软件构建
·
软件设计
神经网络参数初始化:从梯度失控到模型收敛的核心密码
在深度学习的搭建与训练中,参数初始化是极易被忽略却决定模型生死的关键一步。它如同为神经网络搭建 “起点地基”,初始权重的微小差异,会在多层传播中被无限放大,直接引发梯度消失、梯度爆炸,或让模型陷入对称僵局、收敛缓慢。本文将从作用原理、7 种初始化方案、选型逻辑三个维度,彻底讲透参数初始化的核心逻辑,附代码与公式,帮你快速落地最优配置。
li星野
1 天前
人工智能
·
深度学习
·
神经网络
《零基础搞懂神经网络 & 手写AI:从神经元公式到PyTorch实战》
本文完整记录了从“神经元数学模型”到“PyTorch训练循环”的学习全过程,包含公式推导、反向传播原理、代码逐行拆解。全程无废话,适合AI初学者收藏反复看。
LaughingZhu
1 天前
人工智能
·
经验分享
·
深度学习
·
神经网络
·
产品运营
Product Hunt 每日热榜 | 2026-04-18
标语:Claude最强大的模型,专注于推理和智能编码。介绍:Claude Opus 4.7 是 Anthropic 公司当前最先进的公开可用人工智能模型,专为复杂推理和自主编码而设计。它能处理长期任务,准确执行指令,验证输出结果,并在编程、研究和工作流程中提供高质量的结果。
机器学习之心
1 天前
神经网络
·
lstm神经网络
·
锂电池健康状态估计
·
电池soh估计
·
rul预测
·
剩余寿命预测
电池SOH估计和RUL预测 | 基于LSTM神经网络的锂电池健康状态估计和剩余寿命预测,MATLAB代码
电池SOH估计和RUL预测,基于LSTM神经网络的锂电池健康状态估计和剩余寿命预测,MATLAB代码,该代码集围绕锂离子电池健康状态(SOH)估计与剩余寿命预测展开,采用基于数据驱动的LSTM神经网络方法。
渡我白衣
1 天前
人工智能
·
深度学习
·
神经网络
·
学习
·
机器学习
·
迁移学习
·
caffe
触类旁通——迁移学习、多任务学习与元学习
“智者千虑,必有一失;愚者千虑,必有一得。而真正的学习者,能从他人的‘一得’中,提炼出自己的‘千得’。”
Ai17316391579
2 天前
大数据
·
服务器
·
人工智能
·
神经网络
·
机器学习
·
计算机视觉
·
架构
GB200 NVL72超节点深度解析:架构、生态与产业格局
一、超节点:AI算力基础设施的革命性演进 1. 超节点的概念与演进历程超节点(SuperPod)是英伟达率先提出的创新概念,特指在AI服务器集群中,通过超高速互联技术将16张以上GPU紧密连接形成的纵向扩展(Scale Up)系统。这一概念的诞生标志着AI计算从"分散作战"向"集团军作战"的根本性转变。
nap-joker
2 天前
人工智能
·
神经网络
·
cnn
优化的局部定向韦伯图样与更快的区域卷积神经网络的集成,以增强医学图像检索和分类能力
提出新的医学图像检索与分类框架 结合改进的图像模式描述符(OLDPW)与深度学习模型(改进的Faster-RCNN),用于提升医学图像的检索和分类性能。
jr-create(•̀⌄•́)
2 天前
人工智能
·
深度学习
·
神经网络
Deep Learning入门---神经网络概念
重点名词:第三章主要介绍了神经网络的基本概念、结构以及实现方法,重点包括以下内容:神经网络由输入层、隐藏层(中间层)和输出层构成,信号通过激活函数在层间传递。 感知机使用阶跃函数作为激活函数,而神经网络通常使用平滑的激活函数(如sigmoid函数),这是两者的主要区别。
熊猫钓鱼>_>
2 天前
图像处理
·
人工智能
·
神经网络
·
生成对抗网络
·
ai
·
gan
·
博弈
生成对抗网络(GAN)通俗解析:AI如何学会“无中生有”?
你是否想过,AI如何从一堆随机噪声中“变”出一张逼真的人脸?或者让马变成斑马、让夏天变成冬天?这些看似魔法的效果,背后都藏着一种叫生成对抗网络(GAN, Generative Adversarial Network)的AI技术。本文将用最通俗的语言,带你揭开GAN的神秘面纱,甚至教你如何用代码实现一个简单的GAN!
云和数据.ChenGuang
3 天前
人工智能
·
深度学习
·
神经网络
·
目标检测
·
机器学习
·
自然语言处理
·
语音识别
机器学习之超参数是什么?
超参数 = 训练前由人手动设置、模型自己不会学的参数模型参数(参数): 模型在训练过程中自己学到的东西 比如:权重、系数、分割点
程序员小嬛
3 天前
人工智能
·
深度学习
·
神经网络
·
机器学习
中科院一区TOP:用于求解偏微分方程的物理信息神经网络前沿创新思路
小伙伴们好,我是小嬛。专注于人工智能、计算机视觉、AI大模型领域相关分享研究。【目标检测、图像分类、图像分割、目标跟踪等项目都可做,相关领域论文辅导也可以找我;需要的可联系(备注来意)】
沅_Yuan
3 天前
神经网络
·
matlab
·
cnn
·
回归预测
·
多输入单输出
·
se attention
·
itcn
基于 CNN-SE Attention-ITCN 多模态融合的多输入单输出回归预测模型【MATLAB】
在时间序列分析与多维特征回归任务中,数据的特征提取能力与时序依赖捕获能力是决定预测精度的两大核心。传统的单一模型(如单纯的 CNN 或 RNN)往往难以平衡局部关联性、通道重要性以及长程时间依赖。本文将深度解析一种融合了卷积神经网络(CNN)、挤压-激励注意力机制(SE Attention)以及改进型时间卷积网络(ITCN)的复合架构,探讨其在多输入单输出(MISO)回归任务中的理论优势。
码农的神经元
3 天前
神经网络
·
cnn
·
transformer
CEEMDAN-VMD-Transformer-CNN-BiLSTM 时间序列预测模型完整实战:从双重分解到混合神经网络建模
做时间序列预测的时候,我越来越强烈地感受到一件事:很多预测问题,真正难的不是模型不够强,而是原始序列本身就太复杂。
云和数据.ChenGuang
3 天前
人工智能
·
深度学习
·
神经网络
·
目标检测
·
机器学习
·
自然语言处理
·
语音识别
机器学习之预测概率问题
我直接给你讲最核心、最本质的原因,保证你一看就懂!你代码里这两行:一个是“做过的题得分”,一个是“没做过的新题得分”,当然不一样!
MRDONG1
3 天前
人工智能
·
深度学习
·
神经网络
·
语言模型
·
自然语言处理
·
prompt
从 Prompt 到智能体系统:Function Calling、Memory 与 Synthetic RAG 的全栈解析
在早期,人们把大模型当成一个“更聪明的搜索引擎”。但随着能力演进,大模型逐渐变成:可编排、可扩展、可训练的计算核心
sp_fyf_2024
4 天前
人工智能
·
深度学习
·
神经网络
·
机器学习
·
语言模型
·
自然语言处理
【大语言模型】 揭开指令混合用于大语言模型微调的神秘面纱
指令微调能显著提升大语言模型(LLMs)在多种任务上的性能。然而,如何优化用于LLM微调的指令数据集的混合策略,目前仍然缺乏深入理解。本研究将指令分为三大主要类型:NLP下游任务、代码生成和通用对话。我们探索了不同数据集组合的指令微调对LLM性能的影响,并发现某些指令类型对特定应用更有优势,但可能会对其他领域产生负面影响。这项工作为指令混合提供了深入见解,为未来的研究奠定了基础。
dfsj66011
4 天前
人工智能
·
深度学习
·
神经网络
第三章:神经网络的史前史
[!info] 在上一章的结尾我们提到,统计学习走到了它的天花板:特征工程过于依赖人类专家,维度灾难又限制了其发展规模,在跨领域迁移方面能力不足。因此,要想打破这个天花板,就需要发展出一种能让机器自己从原始数据出发学习特征的方法。其实这种想法,早在 1950 年代就已经有人提出来了——但它在接下来三十年里几乎被遗忘,直到一批不肯放弃的人,在最艰难的时刻坚持了下来。