transformer

盼小辉丶21 小时前
人工智能·pytorch·transformer
PyTorch生成式人工智能——基于Transformer实现文本转语音文本转语音生成一直是 AI 助手的重要组成部分,因为它们通常需要与用户进行语音交互。可以使用 Transformer 架构来完成这一任务,Transformer 能够学习如何复制不同的声音。
BarbaraChow2 天前
人工智能·深度学习·transformer
Seed-VC:零样本语音转换与扩散transformer当声音克隆不再需要训练文章:https://arxiv.org/abs/2411.09943 代码:https://github.com/Plachtaa/seed-vc
zl292 天前
深度学习·学习·transformer
论文学习22:UNETR: Transformers for 3D Medical Image Segmentationunetr具有收缩和扩展路径的全卷积神经网络 (FCNN) 在大多数医学图像分割应用中表现出色,但卷积层的局部性限制了其学习长距离空间依赖性的能力。受 Transformer 在自然语言处理 (NLP) 领域近期在长距离序列学习方面取得的成功的启发,本文引入了一种名为 UNEt Transformers (UNETR) 的全新架构,它利用 Transformer 作为编码器来学习输入体的序列表征,并有效捕捉全局多尺度信息。Transformer 编码器通过不同分辨率的跳跃连接直接连接到解码器,以计算最终的
Tadas-Gao5 天前
大模型·llm·transformer
MoVA:多模态视觉专家混合架构的创新设计与应用实践在当今多模态大语言模型(MLLMs)迅猛发展的背景下,视觉编码器作为理解图像内容的关键组件,其性能直接影响模型对多样化视觉输入的处理能力。然而,现有视觉编码器如CLIP和DINOv2等存在明显的局限性——没有单一视觉编码器能够主导各类图像内容的理解。例如,CLIP在一般图像理解表现出色,但在文档或图表内容上表现欠佳。这种“视觉编码器偏见”问题严重制约了MLLMs的泛化能力。
Lee_Serena6 天前
人工智能·深度学习·自然语言处理·bert·transformer
bert学习首先了解一下几种embedding。比如elmo就是一个embedding模型。one-hot编码只能实现one word one embedding,而我们的elmo能实现one token one embedding
无名工程师7 天前
rnn·学习·transformer
浅谈RNN被Transformer 取代的必然性本次围绕 Transformer 的核心思想、发展历程及其与传统网络结构的对比展开了探讨,同时深入剖析了递归神经网络(RNN)的局限性,为理解 Transformer 的革新意义提供了全面视角。
陈敬雷-充电了么-CEO兼CTO7 天前
人工智能·gpt·chatgpt·重构·langchain·开源·transformer
OpenAI 开源模型 GPT-OSS深度拆解:从1170亿参数到单卡部署,重构AI开源生态注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)【陈敬雷编著】【清华大学出版社】
max5006008 天前
数据库·python·单片机·深度学习·mongodb·机器学习·transformer
基于最大似然估计的卡尔曼滤波与自适应模糊PID控制的单片机实现本文详细介绍了如何将最大似然估计(MLE)增强的卡尔曼滤波算法与自适应模糊PID控制器相结合,并在单片机平台上实现。文章首先阐述了卡尔曼滤波和PID控制的基本原理,然后提出了改进的最大似然估计卡尔曼滤波算法和自适应模糊PID控制策略。接着,详细描述了在STM32单片机上的实现过程,包括算法设计、代码优化和硬件接口。最后,通过仿真和实际测试验证了该系统的性能。本文提供了完整的C语言实现代码,并针对单片机资源限制进行了优化。
Xyz_Overlord9 天前
人工智能·自然语言处理·bert·transformer·迁移学习
NLP——BERT模型全面解析:从基础架构到优化演进BERT(Bidirectional Encoder Representations from Transformers)作为自然语言处理(NLP)领域的里程碑式模型,自2018年由Google提出以来,彻底改变了预训练语言模型的发展方向。本报告将从BERT的基本概念与核心架构入手,深入剖析其预训练任务与模型特点,系统梳理BERT的后续优化与变种模型,并通过与其他模型的对比分析展现其技术优势,最后探讨BERT的未来发展趋势与应用前景。通过这份全面而深入的总结报告,读者将能够系统掌握BERT模型的理论基础、
Steve_Abelieve9 天前
人工智能·深度学习·transformer
Transformer的并行计算与长序列处理瓶颈Transformer相比RNN(循环神经网络)的核心优势之一是天然支持并行计算,这源于其自注意力机制和网络结构的设计.并行计算能力和长序列处理瓶颈是其架构特性的两个关键表现:
max5006009 天前
开发语言·python·深度学习·机器学习·matlab·transformer·机器翻译
复现论文《A Fiber Bragg Grating Sensor System for Train Axle Counting》“A Fiber Bragg Grating Sensor System for Train Axle Counting” (用于列车轴计数的光纤布拉格光栅传感器系统)
max5006009 天前
python·深度学习·开源·transformer
基于开源人脸识别模型实现情绪识别功能人脸情绪识别是计算机视觉领域的一个重要研究方向,它结合了人脸检测、特征提取和分类技术,旨在通过分析面部表情来判断人的情绪状态。这项技术在心理健康评估、人机交互、智能安防、广告效果评估等领域有着广泛的应用前景。
s1ckrain9 天前
论文阅读·深度学习·语言模型·transformer
【论文阅读】Transformer Feed-Forward Layers Are Key-Value Memories原文摘要研究背景与问题:核心发现:提出前馈层实质上是键值存储系统实验发现:学习到的文本模式具有人类可解释性
云渚钓月梦未杳9 天前
人工智能·自然语言处理·transformer
NLP自然语言处理 03 Transformer架构2018年10月,Google发出一篇论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》, BERT模型横空出世, 并横扫NLP领域11项任务的最佳成绩!
大知闲闲哟9 天前
pytorch·深度学习·transformer
深度学习TR3周:Pytorch复现Transformer本周任务:1.从整体上把握Transformer模型,明白它是个什么东西,可以干嘛2.读懂Transformer的复现代码
学Linux的语莫10 天前
深度学习·神经网络·transformer
transformer与神经网络1.卷积神经CNN:适合处理图像,计算机视觉领域2.循环神经RNN:存储序列数据,记住过去的信息应用到当前处理过程中,序列不能太长
这张生成的图像能检测吗10 天前
人工智能·深度学习·计算机视觉·transformer·注意力机制
(论文速读)RMT:Retentive+ViT的视觉新骨干论文题目:RMT: Retentive Networks Meet Vision Transformers(RMT:Retentive网络与视觉变压器相遇)
老鱼说AI11 天前
pytorch·深度学习·transformer
Vision Transformer(ViT)模型实例化PyTorch逐行实现为了让大家更好地理解,我们将从零开始,逐步构建 ViT 的各个核心组件,并最终将它们组合成一个完整的模型。我们会以一个在 CIFAR-10 数据集上应用的实例来贯穿整个讲解过程。
老鱼说AI11 天前
人工智能·深度学习·transformer
Vision Transformer (ViT) 详解:当Transformer“看见”世界,计算机视觉的范式革命摘要: 长久以来,卷积神经网络(CNN)凭借其精心设计的归纳偏置(inductive biases),无可争议地统治着计算机视觉领域。然而,一篇名为《An Image is Worth 16x16 Words》的论文彻底改变了这一格局,它所提出的 Vision Transformer (ViT) 模型,成功地将源于自然语言处理(NLP)领域的 Transformer 架构直接应用于图像识别,并取得了惊人的成果。本文旨在深度剖析 ViT 的核心原理、架构设计及其深远影响,阐明它是如何挑战传统,并为视觉任务提
战争热诚11 天前
算法·目标检测·transformer
基于transformer的目标检测——匈牙利匹配算法目前目标检测系列分为基于卷积神经网络(CNN)系列和基于transformer方法系列。对于卷积系列我个人也学习了很多,而对于基于transformer系列的也开始在了解。所以我打算起一个专栏,专门对自己知识的盲区进行扫盲。所以这个系列的文章,也是想到什么总结什么。