神经网络

聆风吟º2 小时前
人工智能·神经网络·cann·异构计算
CANN runtime 实战指南:异构计算场景中运行时组件的部署、调优与扩展技巧在人工智能模型规模持续膨胀、应用场景日益多元的今天,高效的运行时系统已成为连接上层算法与底层硬件的关键桥梁。无论是大语言模型的低延迟推理、多模态模型的实时生成,还是具身智能系统的边缘部署,都离不开一个稳定、灵活且高性能的运行时支撑。CANN 社区推出的 runtime 项目,正是面向异构计算环境打造的核心运行时组件,提供设备管理、内存调度、单算子执行、模型推理、故障诊断等全栈能力。
聆风吟º5 小时前
人工智能·深度学习·神经网络·cann
CANN runtime 全链路拆解:AI 异构计算运行时的任务管理与功能适配技术路径在现代人工智能系统中,模型的高效执行不仅依赖于高性能算子和优化编译器,更离不开一个强大、灵活且可扩展的运行时系统(Runtime System)。运行时作为连接上层框架(如 PyTorch、TensorFlow)与底层硬件资源的“中枢神经”,负责任务调度、内存管理、设备抽象、错误恢复等关键职责。尤其在异构计算架构下,如何协调 CPU、NPU、GPU 等多种计算单元,实现低延迟、高吞吐、高可靠性的 AI 推理与训练,成为运行时设计的核心挑战。
爱吃泡芙的小白白8 小时前
人工智能·神经网络·cnn·卷积层·空洞卷积·普通卷积
突破传统:CNN卷积层(普通/空洞)核心技术演进与实战指南卷积层作为卷积神经网络(CNN)的基石,早已超越了简单的特征提取功能。从经典的普通卷积到为扩大感受野而生的空洞卷积,其技术演进深刻影响着计算机视觉乃至整个AI领域的发展。近年来,随着动态卷积、自适应空洞卷积等新技术的涌现,卷积层正朝着更高效、更灵活、更智能的方向迈进。本文将深入剖析普通卷积与空洞卷积的最新进展、典型应用与实战工具,为你呈现一幅清晰的技术演进图谱。
小瑞瑞acd15 小时前
人工智能·python·深度学习·神经网络·机器学习
【小瑞瑞精讲】卷积神经网络(CNN):从入门到精通,计算机如何“看”懂世界?文章标签: 计算机视觉 卷积神经网络 CNN 深度学习 Python PyTorch 保姆级教程 算法 图像识别
芷栀夏16 小时前
人工智能·深度学习·神经网络·cann
CANN ops-math:揭秘异构计算架构下数学算子的低延迟高吞吐优化逻辑在人工智能模型日益复杂、计算需求指数级增长的今天,底层算子的执行效率直接决定了整个系统的性能天花板。无论是大语言模型中的矩阵乘法,还是科学计算中的复杂数学函数,其背后都依赖于高度优化的基础数学算子库。CANN 社区推出的 ops-math 项目,正是面向异构计算环境打造的一套高性能、低延迟、高吞吐的数学类基础算子集合。它不仅为上层神经网络和 Transformer 模型提供坚实的计算底座,更通过软硬协同的设计哲学,将通用数学运算推向极致性能边界。
Yaozh、18 小时前
人工智能·深度学习·神经网络
【神经网络中的Dropout随机失活问题】今天我们一起来深入了解 Dropout(随机失活)。这是一种在深度学习中非常经典且有效的 正则化(Regularization) 技术。
风指引着方向18 小时前
人工智能·深度学习·神经网络
动态形状算子支持:CANN ops-nn 的灵活推理方案打破固定尺寸限制,让自定义算子也能在昇腾 NPU 上智能适配任意输入形状在真实 AI 应用中,输入数据往往尺寸多变:
爱吃泡芙的小白白19 小时前
人工智能·神经网络·cnn·梯度爆炸·bn·稳定模型
深入解析CNN中的BN层:从稳定训练到前沿演进在卷积神经网络(CNN)的发展历程中,批归一化(Batch Normalization, BN)层的引入无疑是一场革命。它通过规范化中间层的激活值,有效缓解了梯度消失/爆炸问题,大幅提升了模型的训练速度与稳定性,成为现代深度网络设计的标配。然而,随着应用场景的不断拓展(如小批量训练、联邦学习、边缘计算),传统BN的局限性也逐渐显现。本文将深入剖析BN层的核心原理,并系统梳理其最新技术演进、应用场景与工具支持,助你全面掌握这一关键技术的前沿动态。
聆风吟º19 小时前
人工智能·深度学习·神经网络·cann
CANN runtime 性能优化:异构计算下运行时组件的效率提升与资源利用策略在现代人工智能系统中,模型复杂度与数据规模的爆炸式增长对底层执行效率提出了前所未有的挑战。即便拥有高度优化的算子库(如 ops-nn、ops-transformer、ops-cv)和先进的图编译器,若缺乏一个高效、灵活、资源感知的运行时系统(Runtime),整个 AI 软件栈的性能潜力仍将大打折扣。运行时作为连接上层框架与底层硬件的“调度中枢”,负责内存管理、任务分发、流控制、错误处理等关键职责,其效率直接决定了端到端推理或训练的吞吐、延迟与资源利用率。
芷栀夏20 小时前
人工智能·神经网络·线性代数·矩阵·cann
CANN ops-math:从矩阵运算到数值计算的全维度硬件适配与效率提升实践在现代人工智能系统中,底层计算效率直接决定了模型训练速度、推理吞吐量与能源消耗。尽管高层框架(如 PyTorch、TensorFlow)提供了便捷的编程接口,但其性能天花板往往由底层算子库决定。尤其在涉及大量基础数学运算(如指数、对数、三角函数、幂运算、归一化等)的场景中,通用数学库因缺乏对专用硬件特性的深度利用,难以满足高性能 AI 应用的需求。
爱吃大芒果20 小时前
人工智能·深度学习·神经网络
CANN ops-nn 算子开发指南:NPU 端神经网络计算加速实战随着人工智能应用深入千行百业,模型复杂度与计算需求呈指数级增长。通用处理器(CPU)在处理大规模并行计算时已显疲态,专用人工智能芯片(NPU,Neural-network Processing Unit)因其高效的并行架构和低功耗特性,成为AI算力的核心载体。然而,硬件性能的极致发挥,离不开底层软件栈的有力支撑。
聆风吟º20 小时前
人工智能·深度学习·神经网络·cann
CANN ops-nn 实战指南:异构计算场景中神经网络算子的调用、调优与扩展技巧在人工智能模型日益复杂、应用场景不断泛化的今天,底层神经网络算子的执行效率已成为决定 AI 系统性能的关键因素。无论是图像分类、语音识别,还是推荐系统与科学计算,其核心都依赖于一组高度优化的基础算子——如卷积(Conv)、矩阵乘(MatMul)、归一化(LayerNorm)、激活函数(GELU)等。然而,通用深度学习框架提供的默认实现往往难以充分发挥专用异构计算架构的潜力,导致计算资源利用率低下、端到端延迟高企。
love you joyfully20 小时前
人工智能·深度学习·神经网络·多智能体
告别“人多力量大”误区:看AI团队如何通过奖励设计实现协作韧性Arxiv文章解读第1期随着大模型和智能体技术的爆发,多智能体协作已成为解决复杂任务的关键路径,但一个被忽视的痛点是:团队协作往往导致“平庸化”,甚至引发资源滥用。论文不仅指出了混合动机系统中“盲目共识”的陷阱,更提出了一套基于偏好学习的混合奖励框架。它能在不牺牲个体性能的前提下,显著提升系统在干扰下的鲁棒性。在AI系统加速落地的当下,这项研究对于构建真正可持续、抗干扰的智能团队具有极高的参考价值。
芷栀夏20 小时前
人工智能·深度学习·神经网络·cann
CANN ops-math:面向 AI 计算的基础数学算子开发与高性能调用实战指南在人工智能系统日益复杂的今天,底层计算效率已成为决定模型训练速度、推理延迟乃至整体用户体验的关键因素。无论是大语言模型中的注意力机制,还是计算机视觉任务中的卷积运算,其本质都可归结为一系列高度结构化的数学操作。这些操作的执行效率,直接取决于底层算子库的实现质量。
island13141 天前
人工智能·神经网络·架构
CANN HIXL 高性能单边通信库深度解析:PGAS 模型在异构显存上的地址映射与异步传输机制CANN 组织链接: https://atomgit.com/cann HIXL 仓库链接: https://gitcode.com/cann/hixl
island13141 天前
开发语言·人工智能·神经网络
CANN ops-nn 算子库深度解析:核心算子(如激活函数、归一化)的数值精度控制与内存高效实现CANN 组织链接: https://atomgit.com/cann ops-nn 仓库链接: https://gitcode.com/cann/ops-nn
brave and determined1 天前
人工智能·深度学习·神经网络
CANN ops-nn算子库使用教程:实现神经网络在NPU上的加速计算CANN 组织链接: https://atomgit.com/cann ops-nn仓库链接:https://atomgit.com/cann/ops-nn
灰灰勇闯IT1 天前
人工智能·深度学习·神经网络
神经网络的基石——深度解析 CANN ops-nn 算子库如何赋能昇腾 AI在人工智能的宏大叙事中,我们常常谈论模型架构的精巧、数据集的规模以及训练算法的创新。然而,在这些光鲜亮丽的上层建筑之下,真正驱动一切运转的,是那些沉默而高效的“原子”——算子(Operator)。无论是卷积神经网络(CNN)中的卷积操作,还是 Transformer 中的矩阵乘法,亦或是简单的激活函数,每一个神经网络的前向传播和反向传播,都是由成百上千个基础算子协同完成的。
一枕眠秋雨>o<1 天前
人工智能·深度学习·神经网络
深度解读 CANN ops-nn:昇腾 AI 神经网络算子库的核心引擎在国产 AI 算力崛起的浪潮中,华为昇腾(Ascend)AI 处理器已成为打破 CUDA 垄断的关键力量。而作为昇腾生态的"神经中枢",CANN(Compute Architecture for Neural Networks) 异构计算架构的开源,标志着国产 AI 基础软件进入了全栈自主的新时代。今天,我们将聚焦于 CANN 开源矩阵中的核心组件——ops-nn 仓库,揭秘这个支撑神经网络计算的高阶算子库如何在昇腾芯片上释放极致性能。
云边有个稻草人1 天前
人工智能·神经网络·aigc
基于CANN ops-nn的AIGC神经网络算子优化与落地实践AIGC技术的爆发式发展,核心依赖于大模型训练与推理的算力效率提升,而神经网络算子作为AI计算的基本单元,其在专用AI处理器上的适配与优化成为关键环节。华为针对AI场景推出的异构计算架构CANN(Compute Architecture for Neural Networks,项目地址:https://atomgit.com/cann),为昇腾NPU打造了全栈式的计算支撑体系,其中ops-nn仓库(项目地址:https://atomgit.com/cann/ops-nn)作为CANN核心的神经网络类计算算