transformer

Together_CZ1 小时前
人工智能·深度学习·transformer·easyanimate
EasyAnimate:基于Transformer架构的高性能长视频生成方法这里主要是对EasyAnimate的论文阅读记录,感兴趣的话可以参考一下,如果想要直接阅读原英文论文的话地址在这里,如下所示:
deephub1 天前
人工智能·深度学习·transformer·大语言模型·注意力机制
优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器学习成本Transformer 架构由 Vaswani 等人在 2017 年发表的里程碑式论文《Attention Is All You Need》中首次提出,如今已被广泛认为是过去十年间最具开创性的科学突破之一。注意力机制是 Transformer 的核心创新,它为人工智能模型提供了一种全新的方法,使模型能够根据具体任务的需求,灵活地聚焦输入序列的不同部分,从而更深入地理解复杂的语言和结构。
机器学习之心1 天前
算法·lstm·transformer·北方苍鹰算法优化·多变量回归预测·ngo-transformer
一区北方苍鹰算法优化+创新改进Transformer!NGO-Transformer-LSTM多变量回归预测1.Matlab NGO-Transformer-LSTM多变量回归预测,北方苍鹰算法(NGO)优化Transformer-LSTM组合模型(程序可以作为JCR一区级论文代码支撑,目前尚未发表); 2.优化参数为:学习率,隐含层节点,正则化参数,运行环境为Matlab2023b及以上;
余生H1 天前
javascript·深度学习·架构·transformer
transformer.js(三):底层架构及性能优化指南Transformer.js 是一个轻量级、功能强大的 JavaScript 库,专注于在浏览器中运行 Transformer 模型,为前端开发者提供了高效实现自然语言处理(NLP)任务的能力。本文将详细解析 Transformer.js 的底层架构,并提供实用的性能优化策略,以帮助你最大限度地利用其潜能。
代码不行的搬运工1 天前
人工智能·神经网络·transformer
神经网络12-Time-Series Transformer (TST)模型Time-Series Transformer (TST) 是一种基于 Transformer 架构的深度学习模型,专门用于时序数据的建模和预测。TST 是 Transformer 模型的一个变种,针对传统时序模型(如 RNN、LSTM)在处理长时间依赖、复杂数据关系时的限制而提出的。其设计灵感来自于 Transformer 在自然语言处理(NLP)领域的成功应用,尤其是在捕捉序列中的长期依赖关系方面的表现。
罗小罗同学1 天前
深度学习·机器学习·transformer
医工交叉入门书籍分享:Transformer模型在机器学习领域的应用|个人观点·24-11-22今天给大家推荐一本入门书籍。这本书由Uday Kamath、Kenneth L. Graham和Wael Emara撰写,深入探讨了Transformer模型在机器学习领域的应用,特别是自然语言处理(NLP)。
rommel rain2 天前
人工智能·语言模型·transformer
SpecInfer论文阅读题目:SpecInfer: Accelerating Large Language Model Serving with Tree-based Speculative Inference and Verification
Just Jump3 天前
自然语言处理·transformer·机器翻译
机器翻译基础与模型 之三:基于自注意力的模型基于RNN和CNN的翻译模型,在处理文字序列时有个问题:它们对序列中不同位置之间的依赖关系的建模并不直接。以CNN的为例,如果要对长距离依赖进行描述,需要多层卷积操作,而且不同层之间信息传递也可能有损失,这些都限制了模型的能力。
cv君3 天前
深度学习·音视频·transformer·视频修复
视频修复技术和实时在线处理视频修复技术的目标是填补视频中的缺失部分,使视频内容连贯合理。这项技术在对象移除、视频修复和视频补全等领域有着广泛的应用。传统方法通常需要处理整个视频,导致处理速度慢,难以满足实时处理的需求。
机器学习之心3 天前
matlab·回归·transformer·pod-transformer
POD-Transformer多变量回归预测(Matlab)1.Matlab实现POD-Transformer多变量回归预测,本征正交分解数据降维融合Transformer多变量回归预测,使用SVD进行POD分解(本征正交分解); 2.运行环境Matlab2023b; 3.输入多个特征,输出单个变量,多变量回归预测; 4.data为数据集,excel数据,前多列输入,最后1列输出,主程序运行即可,所有文件放在一个文件夹; 5.命令窗口输出R2、MSE、MAE、MAPE和MBE多指标评价; 本征正交分解,Proper orthogonal decomposition
regret~4 天前
论文阅读·深度学习·transformer
【论文笔记】LoFLAT: Local Feature Matching using Focused Linear Attention Transformer【题目】:LoFLAT: Local Feature Matching using Focused Linear Attention Transformer
迪菲赫尔曼4 天前
人工智能·深度学习·yolo·目标检测·计算机视觉·transformer·注意力机制
即插即用篇 | YOLOv11 引入高效的直方图Transformer模块 | 突破天气障碍:Histoformer引领高效图像修复新路径本改进已同步到YOLO-Magic框架!摘要:摘要。基于Transformer的恶劣天气图像修复方法取得了显著进展。大多数方法通过沿通道维度或在空间上固定范围的块内使用自注意力,以减少计算负担。然而,这种折中方式在捕获长距离空间特征方面存在局限性。受到恶劣天气导致的退化因素主要引发类似遮挡和亮度变化的观察启发,本文提出了一种高效的直方图Transformer(Histoformer)用于修复受恶劣天气影响的图像。其核心机制是直方图自注意力,该机制根据强度将空间特征排序并分割到不同的bin中,然后在bin之
Hqst 网络变压器 Andy4 天前
深度学习·5g·transformer
How to connect a 2.5G network transformer to an RJ45 network port and chipTo connect a 2.5G network transformer to an RJ45 network port and chip, you would typically follow these steps to ensure proper electrical signal conversion, transmission, and reception. A network transformer is crucial in isolating the device's internal
xianghan收藏册5 天前
人工智能·深度学习·自然语言处理·chatgpt·transformer
LLM文档对话 —— pdf解析关键问题最近在探索ChatPDF和ChatDoc等方案的思路,也就是用LLM实现文档助手。在此记录一些难题和解决方案,首先讲解主要思想,其次以问题+回答的形式展开。
机器白学6 天前
ocr·transformer·多模态·视觉语言大模型
从零开始使用GOT-OCR2.0——多模态通用型OCR(非常具有潜力的开源OCR项目):项目环境安装配置 + 测试使用在之前精读了这个多模态的OCR项目论文,理解了其基本的模型架构,论文精读地址:【论文精读】GOT-OCR2.0源码论文——打破传统OCR流程的多模态视觉-语言大模型架构:预训练VitDet 视觉模型+ 阿里通义千问Qwen语言模型-CSDN博客
_Randy_7 天前
人工智能·深度学习·transformer
Transformer作用:提取特征,把平平无奇的特征,输出为有特点的特征。考虑全文,更新权重,添加语义信息利用权重更新特征
xianghan收藏册7 天前
人工智能·自然语言处理·chatgpt·transformer
多轮对话中让AI保持长期记忆的8种优化方式篇在基于大模型的 Agent 中,长期记忆的状态维护至关重要,在 OpenAI AI 应用研究主管 Lilian Weng 的博客《基于大模型的 Agent 构成》[1]中,将记忆视为关键的组件之一,下面我将结合 LangChain 中的代码,8 种不同的记忆维护方式在不同场景中的应用。
Doctor老王9 天前
人工智能·pytorch·transformer
TR3:Pytorch复现TransformerTransformer 网络架构架构由 Ashish Vaswani 等人在 Attention Is All You Need一文中提出,并用于机器翻译任务,和以往网络架构有所区别的是,该网络架构中,编码器和解码器没有采用 RNN 或 CNN 等网络架构,而是采用完全依赖于注意力机制的架构。网络架构如下所示: Transformer改进了RNN被人诟病的训练慢的特点,利用self-attention可以实现快速并行。
CSDN云计算10 天前
大模型·transformer·dcformer·彩云天气·彩云小梦·云锦天章
性能高于Transformer模型1.7-2倍,彩云科技发布基于DCFormer架构通用大模型云锦天章2017年,谷歌发布《Attention Is All You Need》论文,首次提出Transformer架构,掀开了人工智能自然语言处理(NLP)领域发展的全新篇章。Transformer架构作为神经网络学习中最重要的架构,成为后来席卷全球的一系列通用大模型如ChatGPT、Gemini的底层技术支撑。而提升Transformer的运行效率也成为人工智能领域的研究热点,2024年4月,谷歌最近一次更新了Transformer架构,提出了Mixture-of-Depths(MoD)方法,使得训练后采样
小毕超10 天前
pytorch·gpt·transformer
基于 PyTorch 从零手搓一个GPT Transformer 对话大模型近年来,大模型的发展势头迅猛,成为了人工智能领域的研究热点。大模型以其强大的语言理解和生成能力,在自然语言处理、机器翻译、文本生成等多个领域取得了显著的成果。但这些都离不开其背后的核心架构——Transformer 。