技术栈
注意力机制
Eshin_Ye
11 天前
笔记
·
学习
·
transformer
·
attention
·
注意力机制
transformer学习笔记-自注意力机制(1)
自注意力机制,可以说是transformer中最核心的部分之一,注意力机制,主要是在处理序列数据时,根据序列数据提供的上下文环境信息识别需要关注的特征数据,注意力机制通常用于不同序列之间的交互,表示不同序列环境的相互影响,而自注意力机制,则更侧重单个序列数据内部个元素间的相互影响关系。–这段话不理解的话,没关系,先放着,且看下面分析:
西西弗Sisyphus
16 天前
人工智能
·
深度学习
·
大模型
·
注意力机制
视觉语言模型 Qwen2-VL
flyfish
deephub
17 天前
人工智能
·
深度学习
·
transformer
·
注意力机制
Hymba: 结合注意力头和SSM头的创新型语言模型方案
近年来,大语言模型(LLM)在各个领域取得了显著成效。但现有的Transformer架构存在计算复杂度高、内存消耗大等问题。而状态空间模型(SSM)如Mamba虽然具有常数复杂度和优化的硬件性能,但在记忆回溯任务上表现较弱。针对这一问题,NVIDIA提出了Hymba架构,通过在同一层中结合注意力头和SSM头,以实现两种架构优势的互补。
scdifsn
19 天前
pytorch
·
笔记
·
深度学习
·
注意力机制
·
多头注意力
动手学深度学习10.5. 多头注意力-笔记&练习(PyTorch)
本节课程地址:多头注意力代码_哔哩哔哩_bilibili本节教材地址:10.5. 多头注意力 — 动手学深度学习 2.0.0 documentation
LinKouun
23 天前
论文阅读
·
人工智能
·
语言模型
·
transformer
·
attention
·
模型压缩
·
注意力机制
论文笔记 SliceGPT: Compress Large Language Models By Deleting Rows And Columns
欲买桂花同载酒,终不似,少年游。秩: 矩阵中最大线性无关的行/列向量数。行秩与列秩相等。 线性无关:对于N个向量而言,如果任取一个向量 v \textbf{v} v,不能被剩下的N-1个向量通过线性组合的方式表示,则称这N个向量为线性无关。
御宇w
23 天前
深度学习
·
计算机视觉
·
注意力机制
(即插即用模块-Attention部分) 二十、(2021) GAA 门控轴向注意力
paper:Medical Transformer: Gated Axial-Attention for Medical Image Segmentation
deephub
1 个月前
人工智能
·
深度学习
·
transformer
·
大语言模型
·
注意力机制
优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器学习成本
Transformer 架构由 Vaswani 等人在 2017 年发表的里程碑式论文《Attention Is All You Need》中首次提出,如今已被广泛认为是过去十年间最具开创性的科学突破之一。注意力机制是 Transformer 的核心创新,它为人工智能模型提供了一种全新的方法,使模型能够根据具体任务的需求,灵活地聚焦输入序列的不同部分,从而更深入地理解复杂的语言和结构。
迪菲赫尔曼
1 个月前
人工智能
·
深度学习
·
yolo
·
目标检测
·
计算机视觉
·
transformer
·
注意力机制
即插即用篇 | YOLOv11 引入高效的直方图Transformer模块 | 突破天气障碍:Histoformer引领高效图像修复新路径
本改进已同步到YOLO-Magic框架!摘要:摘要。基于Transformer的恶劣天气图像修复方法取得了显著进展。大多数方法通过沿通道维度或在空间上固定范围的块内使用自注意力,以减少计算负担。然而,这种折中方式在捕获长距离空间特征方面存在局限性。受到恶劣天气导致的退化因素主要引发类似遮挡和亮度变化的观察启发,本文提出了一种高效的直方图Transformer(Histoformer)用于修复受恶劣天气影响的图像。其核心机制是直方图自注意力,该机制根据强度将空间特征排序并分割到不同的bin中,然后在bin之
scdifsn
1 个月前
pytorch
·
笔记
·
深度学习
·
注意力机制
·
注意力提示
动手学深度学习10.1. 注意力提示-笔记&练习(PyTorch)
本节课程地址:64 注意力机制【动手学深度学习v2】_哔哩哔哩_bilibili本节教材地址:10.1. 注意力提示 — 动手学深度学习 2.0.0 documentation
deephub
2 个月前
人工智能
·
pytorch
·
深度学习
·
神经网络
·
transformer
·
注意力机制
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
本文深入探讨Transformer模型中三种关键的注意力机制:自注意力、交叉注意力和因果自注意力。这些机制是GPT-4、Llama等大型语言模型(LLMs)的核心组件。通过理解这些注意力机制,我们可以更好地把握这些模型的工作原理和应用潜力。
AI完全体
2 个月前
人工智能
·
深度学习
·
机器学习
·
语言模型
·
自然语言处理
·
注意力机制
·
自注意力机制
【AI知识点】三种不同架构的大语言模型(LLMs)的区别
【AI论文解读】【AI知识点】【AI小项目】【AI战略思考】在自然语言处理(NLP)中,预训练语言模型(LLMs, Large Language Models)通常基于不同的架构,如仅编码器的模型(Encoder-only)、编码器-解码器的模型(Encoder-Decoder),以及仅解码器的模型(Decoder-only)。这三种架构有着显著的区别,主要体现在功能、适用任务和性能上。下面从架构、功能、任务适用性、训练数据和推理能力等多个角度详细分析。
机器学习之心
3 个月前
注意力机制
·
多变量时间序列预测
·
tcn-lstm
·
psa-tcn-lstm
全新一区PID搜索算法+TCN-LSTM+注意力机制!PSA-TCN-LSTM-Attention多变量时间序列预测(Matlab)
1.基于PSA-TCN-LSTM-Attention的PID搜索算法优化时间卷积长短期记忆神经网络融合注意力机制多变量时间序列预测,要求Matlab2023版以上,自注意力机制,一键单头注意力机制替换成多头注意力机制;
AI完全体
3 个月前
人工智能
·
pytorch
·
深度学习
·
机器学习
·
语言模型
·
transformer
·
注意力机制
AI小项目4-用Pytorch从头实现Transformer(详细注解)
看了B站李沐老师的下面几个视频如何读论文【论文精读·1】 9年后重读深度学习奠基作之一:AlexNet【论文精读·2】 AlexNet论文逐段精读【论文精读】
逐梦苍穹
4 个月前
人工智能
·
自然语言处理
·
attention
·
注意力机制
【NLP】注意力机制:规则、作用、原理、实现方式
🍃作者介绍:双非本科大三网络工程专业在读,阿里云专家博主,专注于Java领域学习,擅长web应用开发、数据结构和算法,初步涉猎人工智能和前端开发。 🦅个人主页:@逐梦苍穹 📕所属专栏:人工智能 🌻gitee地址:xzl的人工智能代码仓库 ✈ 您的一键三连,是我创作的最大动力🌹
深度之眼
4 个月前
深度学习
·
机器学习
·
论文
·
注意力机制
·
特征融合
Attention结合特征融合炸场!升级版AFF全面开源,涨点猛猛猛
注意力特征融合AFF,一种在深度学习领域被广泛应用的先进技术,通过结合注意力机制和特征融合,可以显著提升模型的泛化能力和性能。
弗兰随风小欢
5 个月前
人工智能
·
深度学习
·
yolo
·
目标检测
·
计算机视觉
·
yolov5
·
注意力机制
【目标检测实验系列】EMA高效注意力机制,融合多尺度特征,助力YOLOv5检测模型涨点(文内附源码)
本篇博客主要涉及多尺度高效注意力机制,融合到YOLOv5s模型中,增加模型提取多尺度特征的能力,助力模型涨点。(通读本篇博客需要7分钟左右的时间)。
机器学习之心
6 个月前
注意力机制
·
双向长短期记忆神经网络
·
bilstm-atten
·
ceemdan-vmd
·
双重分解
·
多元时间序列预测
高创新 | CEEMDAN-VMD-BiLSTM-Attention双重分解+双向长短期记忆神经网络+注意力机制多元时间序列预测
高创新 | CEEMDAN-VMD-BiLSTM-Attention双重分解+双向长短期记忆神经网络+注意力机制多元时间序列预测 本文提出一种基于CEEMDAN 的二次分解方法,通过样本熵重构CEEMDAN 分解后的序列,复杂序列通过VMD 分解后,将各个分量分别通过BiLSTM-Attention模型预测,最终将预测结果整合。
深度之眼
7 个月前
人工智能
·
深度学习
·
机器学习
·
论文
·
注意力机制
涨点神器!全局注意力+位置注意力,打造更强深度学习模型
全局注意力结合位置注意力是学术界与工业界共同的研究热点,它可以有效提升深度学习模型的性能,助力涨点。这种结合策略充分利用全局注意力(擅长捕捉序列或图像中的长距离依赖)和位置注意力(专注于序列中元素的具体位置)各自的优势,让模型在处理数据时同时考虑元素的内容及其在序列中的位置。这不仅提高了模型的表达能力,还能在保持计算效率的同时增强模型对复杂模式的理解和预测能力。
华为云开发者联盟
7 个月前
python
·
深度学习
·
tensorflow
·
注意力机制
·
华为云开发者联盟
解读注意力机制原理,教你使用Python实现深度学习模型
本文分享自华为云社区《使用Python实现深度学习模型:注意力机制(Attention)》,作者:Echo_Wish。
Robot_Yue
7 个月前
人工智能
·
深度学习
·
神经网络
·
卷积神经网络
·
强化学习
·
注意力机制
·
网络优化与正则化
神经网络与深度学习-简要入门
参考引用背景与定义特征表示方式结论背景定义与关键问题深度学习模型端到端学习机器学习方法可以粗略地分为三个基本要素:模型、学习准则、优化算法