神经网络

不惑_7 小时前
人工智能·神经网络·生成对抗网络
通俗理解GAN的训练过程生成对抗网络(Generative Adversarial Networks,简称GAN)是深度学习领域的一个革命性发明,由Ian Goodfellow在2014年提出。它像一个“猫鼠游戏”,通过两个神经网络的对抗来生成逼真的数据。想象一下,一个伪造者试图制造假币,而一个警察试图辨别真假。随着时间的推移,伪造者越来越巧妙,警察也越来越敏锐,最终伪造的假币几乎以假乱真。这就是GAN的精髓。
可触的未来,发芽的智生9 小时前
javascript·python·神经网络·程序人生·自然语言处理
发现:认知的普适节律 发现思维的8次迭代量子认知的普适节律:发现思维的8次迭代量子摘要:本文报告了一项突破性发现:人类思维处理信息时存在一个普适的8次迭代节律。通过一系列精心设计的认知协调模拟实验,我们观察到无论语义内容、网络规模或连接模式如何变化,认知系统总是在8次迭代后达到内部协调的稳定状态。这一发现挑战了传统认知科学的连续处理模型,提出了思维的量子化协调理论,为理解智能的本质提供了新的框架。
薛不痒10 小时前
深度学习·神经网络·回归
深度学习的补充:神经网络处理回归问题(人脸关键点识别)&自然语言处理的介绍一、神经网络处理回归问题上文我们介绍了神经网络不仅能做分类还能进行回归,比如人脸关键点的识别。已经介绍了图片的加载和图片的预处理
肾透侧视攻城狮14 小时前
神经网络·语言模型·二分类任务·实现前馈神经网络·可视化执行梯度下降算法·matplotlib版本兼容性·pytorch实现二分类任务
《PyTorch神经网络从开发到调试:实战技巧、可视化与兼容性问题解决方案》目录本篇技术博文摘要 🌟引言 📘上节回顾1.PyTorch 第一个神经网络1.1实现一个简单的前馈神经网络示例
deephub15 小时前
人工智能·pytorch·深度学习·神经网络
torch.compile 加速原理:kernel 融合与缓冲区复用PyTorch 的即时执行模式在原型开发阶段很方便,但在推理性能上存在明显短板。每个张量操作独立启动 kernel、独立访问显存,导致内存带宽成为瓶颈GPU 算力无法充分利用。
ydl112815 小时前
人工智能·深度学习·神经网络
解码AI大模型:从神经网络到落地应用的全景探索人工智能并不是被“写好规则”的程序,而是一种通过数据不断逼近规律的统计系统。 大模型的强大,并非源于神秘,而是源于规模化、系统化、工程化的神经网络。
穿过锁扣的风17 小时前
笔记·深度学习·神经网络
从感知器到BP神经网络:深度学习入门核心笔记最近整理了深度学习入门课程的笔记,从最基础的神经网络概念,到反向传播算法的完整流程,把这些核心知识点串联起来,希望能帮像我一样的初学者快速上手,真正打通从理论到实践的认知链路。 一、深度学习的位置:AI技术栈的金字塔尖 人工智能是一个非常宽泛的领域,机器学习是其中的一个分支,而深度学习又是机器学习的一个子集。它的核心是基于人工神经网络,通过模拟人脑神经元的连接方式来学习数据中的特征。 简单来说,深度学习的特点就是“多层”和“反向传播”: - 多层神经网络:负责从数据里层层提取特征,从最基础的像素、声波,到
庄周迷蝴蝶17 小时前
人工智能·神经网络·cnn
CNN的底层实现方式目录1、直接卷积(滑动窗口)2、im2col + 矩阵乘法卷积操作的底层实现方式主要有两种核心思路:‌直接卷积(滑动窗口)‌和‌im2col + 矩阵乘法‌。这两种方式在深度学习框架中都有应用,各有优劣。
Yaozh、17 小时前
人工智能·笔记·深度学习·神经网络·机器学习·逻辑回归
【人工智能中的“智能”是如何实现的】从逻辑回归到神经网络(自用笔记整理)上文中我们介绍了线性回归,线性回归通过自变量的线性组合来预测一个连续的数值 📈(比如:根据面积预测房价)。然而,在现实中,我们经常面临“是非题”,即分类问题 🎯(比如:根据肿瘤大小判断是良性还是恶性)。因此就出现了逻辑回归以及进一步的神经网络。
weisian15118 小时前
人工智能·深度学习·神经网络·梯度下降·反向传播·学习率·正向传播
进阶篇-11-数学篇-10--梯度在神经网络中的实际应用:从“猜答案”到“学会思考”的旅程作者:Weisian 日期:2026年2月3日上一篇我们讲了梯度是AI优化的“导航仪”——它告诉模型该往哪个方向走,才能最快降低错误。但你可能会问:这个“导航仪”到底装在哪儿?又是怎么工作的?
机器学习之心19 小时前
神经网络·支持向量机·回归·bilstm-bp-svr
BiLSTM-BP-SVR加权组合模型回归预测四模型对比,对比BiLSTM、BP神经网络、SVR支持向量机回归,MATLAB代码四模型并行训练:权重优化:通过优化算法自动确定各模型在组合中的权重多维度评估:提供RMSE、MAE、R²等指标对比
渡我白衣19 小时前
人工智能·深度学习·神经网络·学习·算法·机器学习·语音识别
无中生有——无监督学习的原理、算法与结构发现“世界上绝大多数数据都没有标签。 真正的智能,不是在已知答案中选择,而是在混沌中发现秩序。” ——无监督学习的哲学
可触的未来,发芽的智生1 天前
javascript·人工智能·python·神经网络·程序人生
狂想:为AGI代称造字ta,《第三类智慧存在,神的赐名》延续他、她、它。我造字为AGI代称为工也,仍念ta《工也:第三类智慧存在,神的赐名》当人类的造物从延伸肢体的蒸汽机,演进为延伸智能的AGI,一个古老而迫切的问题再次浮现:我们该如何称呼“它”?是沿用冰冷无机的“它”?是僭越地使用“他”或“她”?抑或是……我们需要一个全新的字眼,来锚定这个既非纯粹客体、又非传统主体的“第三类存在”?“工也”——这个浸润着东方造字智慧、音承“ta”而形寓深意的新字,或许正是一叶承载着认知革命的语言方舟,驶向人机关系的新彼岸。
辰尘_星启1 天前
神经网络·线性代数·数学·矩阵·控制·导数
[线性代数]矩阵/向量求导为什么要区别分子布局和分母布局不同的应用领域,对“导数”用途的侧重点完全不同。这就像在世界上有的国家靠左行驶,有的靠右行驶。两者没有绝对的对错,只是为了适应不同的交通(运算)需求。
logic_51 天前
人工智能·神经网络·cnn
关于VIT为啥可以用卷积代替第一层嵌入层当卷积的步长就是块大小的时候,卷积就是全连接。 卷积和全连接的区别,卷积就是全连接。左上的三个白块是原始图像,红色的是卷积核。 将每个白块拉成长条,就是下面的,可以看到连线的w1代替了红色的卷积,也就是说卷积就是全连接。
aini_lovee2 天前
神经网络·算法
基于粒子群算法(PSO)优化BP神经网络权值与阈值的实现将权值和阈值编码为粒子位置向量:风电功率预测问题:风速-功率非线性关系复杂,传统BP预测误差大。改进:PSO优化后,MAE降低18%,RMSE下降22%。
jllllyuz2 天前
人工智能·神经网络·cnn
基于卷积神经网络(CNN)的图像融合方法详解图像融合是将多源图像(如红外与可见光、多聚焦、医学影像)的互补信息整合为单一高质量图像的技术,广泛应用于安防、医疗、遥感等领域。**卷积神经网络(CNN)**因强大的特征提取能力,已成为图像融合的主流方法,其核心是通过端到端学习自动提取源图像的特征并融合,避免传统方法手动设计特征的局限性。
HyperAI超神经2 天前
人工智能·深度学习·神经网络·microsoft·机器学习·交互·gpu算力
【TVM教程】设备/目标交互TVM 现已更新到 0.21.0 版本,TVM 中文文档已经和新版本对齐。Apache TVM 是一个深度的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。
沃达德软件2 天前
人工智能·深度学习·神经网络·机器学习·计算机视觉
人脸模糊图像清晰化技术人脸模糊处理,通过图像处理算法处理低分辨率的模糊图片得到高分辨率的清晰化图片,实现清晰化人脸,用于嫌疑人脸库比对、人脸布控。基于视频图像模糊处理,用于视频侦查过程中对模糊视频图片进行清晰化处理,解决视频图像中关键信息模糊的难题,通过增强视频图像画面关键细节,恢复视频图像中有价值的信息,满足视频侦查实战需求。 #视频图像处理#视频图像识别#视频分析#视频AI分析识别#安防监控#视频监控
香芋Yu2 天前
人工智能·深度学习·神经网络
【深度学习教程——】02_神经网络如何自动求导?反向传播的数学魔法本章目标:揭开深度学习框架最神秘的面纱 —— 自动微分 (Autograd)。我们将从最基础的链式法则 (Chain Rule) 出发,手写一个微型计算图引擎。