神经网络

张二娃同学5 小时前
人工智能·python·深度学习·神经网络·学习
第12篇_深度学习学习路线总结深度学习入门专栏 · 第 12 篇 适合读者:已经阅读前两篇内容,希望继续系统学习深度学习核心方法与实践流程的初学者
QBoson12 小时前
人工智能·神经网络·机器学习
Cell :D-SPIN 从单细胞转录组构建调控网络,解析细胞扰动响应底层逻辑本文为《 D-SPIN constructs regulatory network models from scRNA-seq that reveal organizing principles of perturbation response 》的阅读笔记,原文链接: https://www.sciencedirect.com/science/article/pii/S0092867426004630?via%3Dihub。
晓蓝WQuiet12 小时前
人工智能·神经网络·生成对抗网络
GAN生成对抗网络GAN(生成对抗网络)#深度解析# GAN(生成对抗神经网络) GAN公式简明原理GAN令人头疼之处主要在于训练不稳定、收敛困难、难以精准控制生成内容,因此各种各样的网络结构、损失函数、加入条件监督信息技巧和各种约束手段被提出。 在19年对GAN的综述 历史最全GAN网络及其各种变体整理(附论文及代码实现)
Dontla13 小时前
人工智能·神经网络·机器学习
RAG向量模型维度(向量维度)神经网络训练出来的隐式特征、同一个collection必须固定维度、维度灾难、隐藏层大小hidden size、语义坐标系在 RAG(Retrieval-Augmented Generation,检索增强生成)系统中,很多人第一次接触向量数据库时,都会看到类似这样的信息:
pzx_0011 天前
论文阅读·人工智能·深度学习·神经网络·ci/cd
【论文阅读】SWE-CI: Evaluating Agent Capabilities in Maintaining Codebases via Continuous Integrationhttps://arxiv.org/pdf/2603.03823基于大语言模型(LLM)的智能体已在自动化软件工程任务(如静态缺陷修复)中展现出强大能力,SWE‑bench 等基准测试已充分证明这一点。但在实际场景中,成熟软件的开发通常建立在复杂的需求变更与长期功能迭代之上 —— 这一过程是静态、一次性的修复范式所无法刻画的。为弥补这一差距,我们提出 SWE‑CI,这是首个基于持续集成(CI)流程构建的代码库级基准测试,旨在将代码生成的评估范式从静态、短期的功能正确性转向动态、长期的可维护性。该基准包含
那个,我想吃麦麦1 天前
人工智能·深度学习·神经网络
【论文阅读 | Advanced Engineering Informatics 2026】融合条件扩散与图学习的 EEG 信号重建与认知负荷识别📖 论文信息该论文提出了一个"重建-分类"统一框架:第一阶段使用条件引导去噪扩散概率模型(CG-DDPM)同时修复 6 种伪迹污染的 EEG 信号,第二阶段使用融合 CNN、GCN、KAN 三分支编码器的 EEGGX-Net 对认知负荷进行分级识别。在 STEW 和自采集 iNCog-EEG 两个数据集上,二分类准确率均超过 98%,三分类超过 95%,且均为被试独立评估。
心疼你的一切1 天前
人工智能·pytorch·深度学习·神经网络·机器学习
PyTorch实战:手写数字识别神经网络人工智能正在深刻改变我们的世界,而神经网络作为AI领域的核心技术之一,其重要性不言而喻。从图像识别到自然语言处理,从语音识别到自动驾驶,神经网络无处不在。本文将深入浅出地介绍神经网络的基础原理,并通过PyTorch框架进行实践演示,帮助读者快速上手神经网络开发。
张二娃同学2 天前
人工智能·python·rnn·深度学习·神经网络·gru·lstm
第08篇_RNN_LSTM_GRU序列模型深度学习入门专栏 · 第 8 篇 适合读者:已经阅读前两篇内容,希望继续系统学习深度学习核心方法与实践流程的初学者
书生的梦2 天前
笔记·深度学习·神经网络
《神经网络与深度学习》学习笔记(一)人工智能(AI)是让机器模拟人类智能的总称,机器学习是实现人工智能的核心方法,深度学习是机器学习的重要分支。
kcuwu.2 天前
人工智能·pytorch·神经网络
(多代码实现版)PyTorch神经网络入门博客很多同学刚接触 PyTorch 神经网络时,都会遇到同一个问题:代码能跑,但不知道在写什么。nn.Linear、nn.ReLU、forward函数… 这些东西到底是什么关系?为什么要继承nn.Module?为什么CrossEntropyLoss总是报错?
HSunR2 天前
神经网络·学习·transformer
神经网络 从函数到transformer学习笔记我的学习资料 【【闪客】一小时从函数到 Transformer】https://www.bilibili.com/video/BV1NCgVzoEG9?p=2&vd_source=fe688d296a49c21a47090f9730a67ab4 【90分钟!清华博士带你一口气搞懂人工智能和神经网络】https://www.bilibili.com/video/BV1atCRYsE7x?vd_source=fe688d296a49c21a47090f9730a67ab4 【大白话讲解:线性回归】https:
数据门徒2 天前
人工智能·深度学习·神经网络
神经网络原理 第八章:主分量分析主分量分析 是神经网络无教师学习部分的开篇之作(第8章)。它是一种经典的数据降维和特征提取方法,其核心思想是通过线性变换,将原始可能相关的变量,重新组合成一组新的、相互无关的变量,称为主分量。
人工智能培训2 天前
人工智能·深度学习·神经网络·机器学习·生成对抗网络
伦理与安全困境:在平衡中探寻前行之路当人工智能算法决定求职筛选结果,当基因编辑技术触碰生命伦理底线,当数据监控在安全与隐私间摇摆,伦理与安全的困境已不再是抽象的哲学命题,而是渗透在科技发展、社会治理、日常生活中的现实挑战。伦理是人类社会公认的价值准则,是区分善恶、界定边界的精神标尺;安全则是个体生存、社会运转的基本前提,是一切发展的根基。二者看似相辅相成,实则常常陷入相互博弈的困境,如何在坚守伦理底线的同时守护安全,成为当代社会必须面对的重要课题。
星浩AI2 天前
pytorch·深度学习·神经网络
(二)神经网络训练基础:激活函数、反向传播与自动求导本节聚焦「如何训练」:先对齐常用术语,再依次说明激活函数、训练循环、反向传播与自动求导。一种模仿生物神经网络的结构和功能的数学模型或计算模型,按照一定的规则将多个神经元连接起来的网络。
渡我白衣3 天前
linux·开发语言·前端·c++·人工智能·深度学习·神经网络
定时器与时间轮思想在Linux中,提供了几个定时操作的相关函数,我们先来认识一下:timerfd_create 是 Linux 系统中用于创建定时器文件描述符的系统调用,我们先来详细介绍一下他的两个参数。
web守墓人3 天前
前端·javascript·人工智能·pytorch·深度学习·神经网络
【神经网络】js版本的Pytorch,estorch重磅发布类似 PyTorch 的 JavaScript (ECMAScript) 张量/自动微分库,支持 CPU 训练。零依赖,纯 CommonJS 模块。
人工智能培训3 天前
人工智能·深度学习·神经网络·机器学习·生成对抗网络
知识图谱与检索增强的实战结合
星座5283 天前
人工智能·深度学习·神经网络·transformer·强化学习·目标检测算法
驾驭AI 2.0时代:Transformer、扩散模型与物理信息神经网络核心技术解析近年来,随着卷积神经网络(CNN)等深度学习技术的飞速发展,人工智能迎来了第三次发展浪潮,AI技术在各行各业中的应用日益广泛。这个教程将带您全面掌握AI前沿技术、新理论及其Python代码实现,助您走在人工智能的技术前沿。
栈溢出了3 天前
人工智能·神经网络·算法·机器学习·gin
GIN学习笔记在普通 GNN 中,节点更新通常可以理解为:但是这里有一个重要问题:不同的邻居集合,经过聚合之后,可能会得到相同的结果。
沪漂阿龙3 天前
人工智能·深度学习·神经网络
面试题:神经网络的优化怎么讲?梯度消失、Adam、BN、Dropout、权重初始化一文讲透很多人一提“神经网络优化”,第一反应就是:换 Adam、调学习率。 这只说对了一小半。 真正的优化,是从网络结构、梯度传递、初始化、优化器、归一化、正则化到数据增强的一整套配合。