深度学习

love you joyfully4 分钟前
人工智能·深度学习·神经网络·多智能体
告别“人多力量大”误区:看AI团队如何通过奖励设计实现协作韧性Arxiv文章解读第1期随着大模型和智能体技术的爆发,多智能体协作已成为解决复杂任务的关键路径,但一个被忽视的痛点是:团队协作往往导致“平庸化”,甚至引发资源滥用。论文不仅指出了混合动机系统中“盲目共识”的陷阱,更提出了一套基于偏好学习的混合奖励框架。它能在不牺牲个体性能的前提下,显著提升系统在干扰下的鲁棒性。在AI系统加速落地的当下,这项研究对于构建真正可持续、抗干扰的智能团队具有极高的参考价值。
happyprince13 分钟前
人工智能·深度学习·计算机视觉
2026年02月08日热门论文近年来,LLM及其衍生的Agent、多模态系统已成为AI领域的研究核心,论文趋势呈现“三实三优”的鲜明特征:从“理想场景”走向“真实实践”,聚焦不确定性处理、安全防护、长程规划等落地关键问题;从“单一能力”走向“综合优化”,强化学习追求无偏训练与高效适配,多模态突破视觉-语言壁垒;从“通用评估”走向“领域深耕”,特定基准贴近生物、数学等专业场景,实现“通用能力+领域深度”的双重突破。正如《文心雕龙》所言“凡操千曲而后晓声,观千剑而后识器”,这些研究在大量实践与反思中,推动AI从“能做”向“做好、做稳”演进
芷栀夏16 分钟前
人工智能·深度学习·神经网络·cann
CANN ops-math:面向 AI 计算的基础数学算子开发与高性能调用实战指南在人工智能系统日益复杂的今天,底层计算效率已成为决定模型训练速度、推理延迟乃至整体用户体验的关键因素。无论是大语言模型中的注意力机制,还是计算机视觉任务中的卷积运算,其本质都可归结为一系列高度结构化的数学操作。这些操作的执行效率,直接取决于底层算子库的实现质量。
心疼你的一切9 小时前
数据仓库·人工智能·深度学习·aigc·智慧城市·cann
昇腾CANN实战落地:从智慧城市到AIGC,解锁五大行业AI应用的算力密码昇腾CANN(Compute Architecture for Neural Networks)并非停留在技术文档中的抽象框架,而是已经深度渗透到智慧城市、医疗、工业、AIGC等核心领域的“算力引擎”。它通过屏蔽底层硬件复杂度、优化AI算子性能、适配大模型场景,成为国产化AI应用落地的核心支撑。本文将聚焦CANN在四大典型行业的真实落地案例,拆解其技术实现路径与业务价值,让你直观看到CANN如何将“芯片算力”转化为“业务成果”。 cann组织链接 ops-nn仓库链接
chian-ocean9 小时前
人工智能·深度学习·transformer
量化加速实战:基于 `ops-transformer` 的 INT8 Transformer 推理Transformer 模型通常以 FP32 或 FP16 精度训练和推理,但这类浮点运算对计算资源和内存带宽要求极高。在边缘设备(如智能摄像头、车载终端、IoT 网关)上,往往缺乏高性能 NPU 或大容量显存。此时,INT8 量化成为关键突破口:
水月wwww9 小时前
人工智能·深度学习·cnn·卷积神经网络
【深度学习】卷积神经网络卷积神经网络是专门为处理网格状数据(如图片<二维像素网格>、语音<一维时序网格>)设计的深度学习模型,核心优势是通过局部感知和权值共享,大幅减少模型参数、降低过拟合风险,同时能高效提取数据的空间/时序特征,是计算机视觉、图像识别等领域的基础模型。
杜子不疼.9 小时前
深度学习·性能优化·transformer
CANN_Transformer加速库ascend-transformer-boost的大模型推理性能优化实践Transformer架构已成为自然语言处理和计算机视觉领域的主流模型架构。随着GPT、LLaMA等大语言模型的兴起,如何高效地在NPU上部署和推理Transformer模型成为关键挑战。ascend-transformer-boost是CANN生态中专门针对Transformer模型优化的加速库,提供了从算子级别到模型级别的全方位优化方案。
renhongxia110 小时前
人工智能·深度学习·算法·机器学习·自然语言处理·transformer·知识图谱
如何基于知识图谱进行故障原因、事故原因推理,需要用到哪些算法基于知识图谱进行故障或事故原因推理,是工业智能、安全管理和运维决策中的核心能力。其目标是:当发生异常事件(如设备停机、安全事故)时,系统能自动回溯关联因素,定位根本原因,并提供可解释的推理路径。
深鱼~10 小时前
人工智能·深度学习·transformer·cann
ops-transformer算子库:解锁昇腾大模型加速的关键在大模型时代,Transformer架构成为自然语言处理、计算机视觉、多模态融合等领域的核心基础,但其动辄数十亿、上百亿的参数量带来了巨大的计算开销,对硬件算力和底层算子优化提出了极高要求。CANN(Compute Architecture for Neural Networks)作为华为面向AI场景打造的异构计算架构,是昇腾AI处理器发挥极致算力的核心支撑,而ops-transformer算子库作为CANN生态中专为Transformer大模型打造的专用算子库,针对Transformer的核心计算环节做
禁默10 小时前
深度学习·重构·aigc·transformer·cann
不仅是 FlashAttention:揭秘 CANN ops-transformer 如何重构大模型推理目录前言一、 击穿“长序列”瓶颈:FlashAttention 的原生进化二、 驾驭“稀疏计算”:MoE 的完整工具链
笔画人生10 小时前
人工智能·深度学习·transformer
进阶解读:`ops-transformer` 内部实现与性能调优实战cann组织链接:https://atomgit.com/cann ops-nn仓库链接:https://atomgit.com/cann/ops-nn 在 Transformer 模型中,多个小算子的频繁调用会带来显著的调度开销和内存带宽瓶颈。ops-transformer 通过 算子融合 技术,将多个逻辑操作合并为一个硬件友好的内核(Kernel),从而减少中间张量的生成与搬运。
种时光的人10 小时前
深度学习·aigc·transformer
CANN仓库核心解读:ascend-transformer-boost解锁AIGC大模型加速新范式在AIGC大模型向千亿、万亿参数量迭代的过程中,Transformer架构已成为绝对核心——无论是大语言模型、多模态模型,还是生成式语音、视频模型,其核心计算逻辑都围绕Transformer架构展开。但随着模型参数量激增,Transformer架构的计算复杂度呈指数级上升,尤其是Attention机制中的矩阵运算,成为制约大模型训练与推理效率的核心瓶颈。华为昇腾CANN开源仓库(CANN组织链接:https://atomgit.com/cann)作为全栈AI算力支撑平台,专为AIGC大模型Transfor
brave and determined12 小时前
人工智能·深度学习·神经网络
CANN ops-nn算子库使用教程:实现神经网络在NPU上的加速计算CANN 组织链接: https://atomgit.com/cann ops-nn仓库链接:https://atomgit.com/cann/ops-nn
笔画人生12 小时前
深度学习·架构·transformer
系统级整合:`ops-transformer` 在 CANN 全栈架构中的角色与实践cann组织链接:https://atomgit.com/cann ops-nn仓库链接:https://atomgit.com/cann/ops-nn
觉醒大王12 小时前
人工智能·笔记·深度学习·学习·职场和发展·学习方法
AI写的青基中了奴隶主让国内的朋友给他写大基金。朋友也有一个青基要写,原想着先写着,但奴隶主说不用急,你帮我把大基金写好,我到时帮你把关就行了。于是朋友拿人钱财,替人消灾,心里虽烦,手底下却老实,白天写,夜里改,改到眼睛发红,身体发虚。
深鱼~12 小时前
人工智能·深度学习·transformer
深度剖析ops-transformer:LayerNorm与GEMM的融合优化在Transformer架构中,Layer Normalization(LayerNorm) 与 GEMM(通用矩阵乘) 是两个高频出现的基础操作。典型Transformer层包含多个“LayerNorm → GEMM → Activation → GEMM”组合。若将这些操作独立执行,不仅会引发多次内核启动开销,还会导致中间激活值频繁写入/读取全局内存,严重制约性能。
哈__12 小时前
人工智能·深度学习
CANN图优化技术:深度学习模型的编译器魔法深度学习模型从训练框架到硬件执行之间,需要经过一系列的转换和优化过程。这个过程类似于传统编程语言的编译,但更加复杂。华为CANN平台内置了强大的图优化引擎,能够自动对计算图进行多种优化,显著提升模型的执行效率。
灰灰勇闯IT12 小时前
人工智能·深度学习·神经网络
神经网络的基石——深度解析 CANN ops-nn 算子库如何赋能昇腾 AI在人工智能的宏大叙事中,我们常常谈论模型架构的精巧、数据集的规模以及训练算法的创新。然而,在这些光鲜亮丽的上层建筑之下,真正驱动一切运转的,是那些沉默而高效的“原子”——算子(Operator)。无论是卷积神经网络(CNN)中的卷积操作,还是 Transformer 中的矩阵乘法,亦或是简单的激活函数,每一个神经网络的前向传播和反向传播,都是由成百上千个基础算子协同完成的。
deephub12 小时前
人工智能·深度学习·大语言模型·推理时计算
LLM推理时计算技术详解:四种提升大模型推理能力的方法2025年LLM领域有个有意思的趋势:与其继续卷模型训练,不如在推理阶段多花点功夫。这就是所谓的推理时计算(Test-Time / Inference-Time Compute):在推理阶段投入更多计算资源,包括更多Token、更多尝试、更深入的搜索,但不会改动模型权重。
chian-ocean12 小时前
深度学习·开源·transformer
智能多模态助手实战:基于 `ops-transformer` 与开源 LLM 构建 LLaVA 风格推理引擎cann组织链接:https://atomgit.com/cann ops-nn仓库链接:https://atomgit.com/cann/ops-nn