神经网络

Bony-2 小时前
人工智能·神经网络·cnn
驾驶员行为检测:基于卷积神经网络(CNN)的识别方法数据与完整代码来源目录 💻1. 简要说明该数据集是关于什么的?本主题的重要性2. 关于本项目为什么使用CNN?
:mnong5 小时前
人工智能·神经网络·学习
辅助学习神经网络系统讲解了神经网络的基础架构、核心组件及其在不同任务中的应用,重点阐述了激活函数、优化器、损失函数与模型训练流程,并结合CNN、RNN、Transformer等模型分析了其设计逻辑与工程实现。
2503_946971867 小时前
人工智能·神经网络·算法·数据集·剪枝·网络架构·系统运维
【BruteForce/Pruning】2026年度物理层暴力破解与神经网络剪枝基准索引 (Benchmark Index)为了验证**物理层暴力破解(Physical Brute Force)在高防御节点(Crime City)的穿透效率,以及神经网络(Neural Network)在完全重置(Reboot)后的强化学习(Reinforcement Learning)**曲线,我们整理了 "Benchmark-2026-Force" 核心演进集。
不惑_8 小时前
人工智能·神经网络·cnn
通俗理解经典CNN架构:VGGNet在当今的数字时代,图像识别技术已经渗透到我们生活的方方面面。从智能手机的拍照识别,到自动驾驶汽车的物体检测,再到医疗影像的诊断分析,这些都离不开一种强大的工具——卷积神经网络(Convolutional Neural Network,简称CNN)。CNN是深度学习领域的一个核心架构,它模拟了人类视觉系统的处理方式,能够从海量图像数据中自动提取特征,实现高精度的分类和识别。
生成论实验室1 天前
人工智能·科技·神经网络·算法·架构
生成论之基:“阴阳”作为元规则的重构与证成——基于《易经》与《道德经》的古典重诠与现代显象作者:周林东,单位:独立研究者摘要:本文旨在对周林东所构建的“生成论”元理论体系进行一项奠基性的哲学勘定与重构。研究指出,生成论的核心范畴“阴阳”在其论述中存在“构成要素”与“演化规律”间的定位模糊,从而削弱了理论的自洽性。为解决此问题,本文提出并论证一个核心命题:“阴阳”应被确立为优先于并逻辑生成“五大生成元定律”的“元规则”。为此,本研究重返中国思想的双重古典源头,通过对《易经》的“结构论”与《道德经》的“过程论”进行生成论式的再诠释,共同证成“一阴一阳之谓道”实为一个同时蕴含“动力因”与“目的因”的
Java后端的Ai之路1 天前
人工智能·神经网络·cnn
【人工智能领域】- 卷积神经网络(CNN)深度解析一、生物学启示:从猫的视觉皮层到CNN的诞生 二、CNN结构解剖:卷积层与池化层的完美配合 三、卷积运算详解:数学原理与可视化理解 四、CNN可视化:看神经网络如何"看见"世界 五、CNN训练原理:从随机猜测到精准识别 六、ImageNet革命:推动深度学习发展的关键赛事 七、总结:CNN的本质与未来展望
Salt_07281 天前
人工智能·python·深度学习·神经网络·机器学习
DAY 58 经典时序预测模型 1作为零基础的 Python 和机器学习学习者,我将用最通俗易懂的语言、贴近生活的例子,把经典时序预测模型 1 的核心知识点 —— 序列数据处理(n 阶差分处理非平稳性、季节性差分处理季节性)和模型选择(AR (p)、MA (q)、ARMA (p,q))拆解得明明白白,还会配合详细的代码步骤,确保你彻底理解。
Niuguangshuo1 天前
人工智能·神经网络·机器学习
理解MCMC、Metropolis-Hastings和Gibbs采样:从随机游走到贝叶斯推断想象一下,你是一位探险家,手持一张模糊不清的藏宝图。你知道宝藏就在某个区域,但地图太模糊,无法直接确定精确位置。于是你决定采取这样的策略:随机在周围走走,但更倾向于向可能藏宝的区域移动。随着时间的推移,你会在宝藏最可能存在的区域停留更长时间,从而通过这些位置信息推断出宝藏的大致分布。
田里的水稻1 天前
人工智能·深度学习·神经网络
E2E_基于端到端(E2E)的ViT神经网络模仿目标机械臂的示教动作一基于已完成时间同步的多视角机械臂视频,用 ViT(Vision Transformer)构建端到端的 Transformer 神经网络,直接从视频帧映射到机械臂关节角度,核心目标是跳过传统视觉的 “关节检测 - 三维重建” 步骤,通过深度学习直接实现从多视角图像到关节角度的回归。以下是方案的全流程步骤,包含模型构建、训练、部署的每一个具体执行细节,兼顾友好性和工业级实践。
不惑_1 天前
人工智能·神经网络·cnn
通俗理解经典CNN架构:LeNet在人工智能和机器学习的世界里,卷积神经网络(Convolutional Neural Network,简称CNN)就像是一把神奇的钥匙,它打开了计算机视觉的大门,让机器能够“看懂”图片。想象一下,你的手写数字,比如在支票上写的金额,银行的系统如何自动识别?这背后的功臣之一就是LeNet架构。它是CNN的鼻祖,诞生于上世纪90年代,却奠定了现代深度学习的基础。
纪伊路上盛名在1 天前
pytorch·深度学习·神经网络·numpy·工程化
Chap1-1 Numpy手搓神经网络—入门PyTorch上一篇博客:Chap1:Neural Networks with NumPy(手搓神经网络理解原理)不借助pytorch、tensorflow等现代框架,
肥猪猪爸1 天前
人工智能·神经网络·机器学习·自然语言处理·langchain·大模型·transformer
Langchain实现ReAct Agent多变量工具调用大语言模型(LLM)虽强,却有致命短板:传统方案是:RAG(检索增强生成)——先查知识库,再生成答案。 但 RAG 仍有局限:它只能“读”,不能“做”。
爱思德学术1 天前
人工智能·神经网络·认知科学
中国计算机学会(CCF)推荐学术会议-B(交叉/综合/新兴):CogSci 2026CogSci 2026CogSci 2026 will be fully hybrid with streaming of the entire program, except for workshops (which will all be in-person). Presenters can choose to present in-person in Rio de Janeiro or virtually, and virtual attendees will be able to view the
开开心心就好1 天前
linux·运维·服务器·神经网络·cnn·pdf·1024程序员节
系统清理工具清理缓存日志,启动卸载管理软件介绍今天给大伙儿安利个轻量级的电脑清理小工具,它叫 Windows系统清理工具。这工具小到没朋友,才916KB,专门给电脑做“大扫除”的,特省心!
sysu_lluozh1 天前
人工智能·深度学习·神经网络
【深度学习】神经网络与深度学习-神经网络的编程基础事实证明,当实现神经网络时,有一些实现技巧会变得非常重要。例如,如果有一个包含M个训练样本的训练集,可能习惯于通过for循环逐步处理这M个训练样本,但通常希望在不使用显式for循环的情况下处理整个训练集
Hcoco_me1 天前
人工智能·深度学习·神经网络·算法·机器学习·transformer·word2vec
大模型面试题49:从白话到进阶详解SFT 微调的 Loss 计算SFT 的全称是 Supervised Fine-Tuning(监督微调),它的核心目标是:让预训练好的大模型,在人工标注的「指令-回答」数据上学习,精准匹配人类的指令意图。
deephub1 天前
人工智能·深度学习·神经网络·transformer·注意力机制
Mosaic:面向超长序列的多GPU注意力分片方案Transformer的"二次方注意力瓶颈"的问题是老生常谈了。这个瓶颈到底卡在哪实际工程里怎么绕过去?本文从一个具体问题出发,介绍Mosaic这套多轴注意力分片方案的设计思路。
Wu_Dylan1 天前
人工智能·深度学习·神经网络
液态神经网络系列(三) | 从 Neural ODE 到 Liquid Time-constant Networks(LTC):给神经网络注入物理灵魂在上一篇中,我们探讨了 Neural ODE 的强大之处:它将神经网络从离散的层推向了连续的积分路径。然而,Neural ODE 就像一个“纯数学的理想国”,虽然优雅,但在处理极其不稳定的现实时序数据时,它往往表现得过于“自由”——缺乏物理约束的向量场容易在长时间序列中产生梯度震荡或数值不稳定性。
后端小张1 天前
人工智能·深度学习·神经网络·学习·机器学习·计算机视觉·cnn
【AI 学习】揭开AI卷积神经网络的神秘面纱:从理论到实战卷积神经网络(Convolutional Neural Network,缩写 CNN)是一种专门为处理具有网格结构数据(如图像、音频)而设计的深度学习模型 。它通过卷积层、池化层和全连接层等组件,自动提取数据的特征,在图像识别、目标检测、语义分割等计算机视觉任务中表现卓越。与传统神经网络相比,CNN 的关键优势在于局部连接和权值共享,大大减少了模型参数数量,降低计算量的同时提高了训练效率和泛化能力。
学好statistics和DS1 天前
神经网络
深度网络的顽疾:梯度消失问题深度网络的顽疾:梯度消失问题在深度学习领域,构建更深的神经网络是提升模型性能的关键路径。然而,随着网络层数的增加,一个难题,梯度消失(Vanishing Gradient)便会浮出水面,它如同一个无形的枷锁,阻碍着深度网络的训练。简单来说,梯度消失是指在深度神经网络的反向传播过程中,损失函数对前面层权重参数的梯度变得极其微小,趋近于零。这导致的直接后果是:网络的前面层参数几乎得不到有效的更新。因为参数更新的大小正比于梯度,梯度近乎为零,意味着这些层的权重在训练中几乎停滞不前。