深度学习

简简单单做算法13 小时前
深度学习·matlab·lstm·transformer·时间序列预测·ga遗传优化·电池剩余寿命预测
基于GA遗传优化的Transformer-LSTM网络模型的时间序列预测算法matlab性能仿真目录1.前言2.算法测试效果图预览3.算法运行软件版本4.部分核心程序5.算法理论概述5.1 各模块核心原理
龙文浩_14 小时前
人工智能·pytorch·深度学习·神经网络·自然语言处理
AI中NLP的文本张量表示方法在自然语言处理中的演进与应用AI中NLP的文本张量表示方法在自然语言处理中的演进与应用
极光代码工作室14 小时前
深度学习·nlp·bert·文本分类
基于BERT的新闻文本分类系统随着互联网信息爆炸式增长,新闻资讯日均产量超千万条,人工审核与归类已无法满足时效性与准确性需求。传统机器学习方法(如TF-IDF+SVM)在语义理解能力上存在显著瓶颈,难以捕捉上下文依赖与隐含情感倾向。近年来,预训练语言模型(PLM)尤其是BERT(Bidirectional Encoder Representations from Transformers)凭借其双向注意力机制与深层上下文建模能力,在自然语言理解任务中展现出革命性性能提升。本文设计并实现了一套端到端的基于BERT的新闻文本分类系统,面向
XINVRY-FPGA15 小时前
arm开发·人工智能·嵌入式硬件·深度学习·fpga开发·硬件工程·fpga
XC7VX690T-2FFG1157I Xilinx AMD Virtex-7 FPGAXC7VX690T-2FFG1157I 是 Xilinx 推出的 Virtex-7 系列中的旗舰级 FPGA 器件之一,基于 28nm HPL(High Performance Low Power)工艺制造,在性能、功耗与集成度之间实现了高度平衡。该器件主要面向高端通信系统、高性能计算(HPC)、测试测量以及高端视频处理等对数据吞吐能力和实时处理能力。
AI视觉网奇15 小时前
人工智能·深度学习
生成GeoGebra目录mcp生成ggb代码:二、有没有开源模型?❌ 专门“GeoGebra生成”的模型✅ 可以替代的开源模型
古希腊掌管代码的神THU16 小时前
人工智能·深度学习·自然语言处理
【清华代码熊】图解 Gemma 4 架构设计细节📌 本期图解 Google 开源Gemma 4 架构设计细节,其中端侧模型的架构上有很多值得一看的设计。
Purple Coder16 小时前
人工智能·rnn·深度学习
7-RNN 循环网络层文本数据具有序列性一次
大写的z先生16 小时前
人工智能·深度学习
【深度学习 | 论文精读】Qwen-VL:从“纯文本”到“火眼金睛”,通向多模态大模型的进阶之路在 2023 年之前,大语言模型(LLM)虽能出口成章,却身处“黑暗”。随着多模态大模型(LVLM)的爆发,如何让模型既能“看懂大意”又能“抠出细节”成了技术高地。
workflower16 小时前
人工智能·深度学习·设计模式·软件工程·软件构建·制造
深度学习是通用型人工智能的基础研究人员使用一种称为深度学习的流程来构建通用型人工智能模型,该流程训练模型通过示例进 行学习 (41)。不同于软件工程,深度学习模型可学会根据数据来完成任务,而不依赖手写指令。通过处理大量数据(如图像、文本或音频),这些模型能够发现表示这些数据的方法,从而创建对模式(patterns)(如形状、词语关联或声音结构)的内部表示(internal representations),帮助模型识别其中的关系,并生成与其训练目标一致的输出。然后,它们利用这些学到的内部表征作为抽象特征(abstractfeature
卡梅德生物科技小能手16 小时前
经验分享·深度学习·生活
CD40LG(CD40配体)靶点深度解析:免疫调控机制与抗体药物工程化策略在免疫学与生物制药研发领域,共刺激分子CD40LG(CD40配体,又称CD154)始终占据着核心地位。作为肿瘤坏死因子(TNF)超家族的关键成员,CD40LG通过与抗原呈递细胞(APC)表面的CD40受体结合,在T-B细胞协作、炎症应答及免疫耐受中发挥着“开关”作用。本文将从分子作用机制、上市药物的工程化改造策略以及未来研发趋势三个维度,系统梳理该靶点的科研逻辑与技术路径。
清空mega16 小时前
人工智能·深度学习
动手学深度学习|深度学习硬件基础:CPU 和 GPU 到底有什么区别?为什么训练模型更喜欢 GPU?学完前面的卷积神经网络、批量归一化、残差网络之后,很多同学会慢慢注意到一个非常现实的问题:模型会写了,代码也能跑了,但为什么有时候训练特别慢?
泰恒16 小时前
人工智能·深度学习·机器学习
计算机体系结构基础计算机体系结构是程序员、嵌入式开发者与硬件设计者必须掌握的核心基础,它研究计算机硬件系统的逻辑组织、功能划分、指令执行流程以及软硬件之间的协同方式。通俗来说,计算机体系结构回答了三个根本问题:计算机由哪些核心部件构成?数据和指令如何在内部流动?程序如何被高效执行?从早期的电子管计算机,到如今的多核CPU、异构计算、NPU加速芯片,体系结构始终是计算机技术发展的主线。对于智能小车、嵌入式开发、AI模型部署等实践场景,理解体系结构能够帮助开发者更合理地利用硬件资源、优化程序性能、提升系统运行效率。
花千树-01017 小时前
人工智能·深度学习·ai·语音识别·tts
IndexTTS2 推理性能分析IndexTTS2 是典型的自回归模型(逐 token 生成),对 GPU 性能特别敏感。➡️ 使用显卡能提升 8 倍 ~ 80 倍 (取决于 GPU 型号、批量、FP16 支持等)
带娃的IT创业者17 小时前
人工智能·深度学习·神经网络·transformer·架构设计·mlp
MLP vs Transformer:不同问题用不同工具📚 《从零到一造大脑:AI架构入门之旅》专栏 专栏定位:面向中学生、大学生和 AI 初学者的科普专栏,用大白话和生活化比喻带你从零理解人工智能 本系列共 42 篇,分为八大模块:
code_pgf17 小时前
人工智能·深度学习·transformer
Transformer 原理讲解及可视化算子操作Transformer 是一种完全基于注意力机制(Attention) 的序列建模架构。与传统 RNN/LSTM 不同,Transformer 不依赖递归;与传统 CNN 不同,它也不依赖卷积来传播长程依赖。其核心思想是:
碑 一17 小时前
人工智能·深度学习·计算机视觉
视频分割VisTR算法CVPR 2021 | 基于Transformer的端到端视频实例分割方法 - 知乎目录第一个思考是:视频本身是序列级别的数据,能否直接将其建模为序列预测的任务?比如,借鉴自然语言处理(NLP)任务的思想,将视频实例分割建模为序列到序列(Seq2Seq)的任务,即给定多帧图像作为输入,直接输出多帧的分割Mask序列,这时需要一个能够同时对多帧进行建模的模型。
毕胜客源码18 小时前
人工智能·python·深度学习·yolo·django
改进yolov8的香蕉成熟度检测系统,改进前后的模型指标对比,有技术文档,支持图像、视频和摄像实时检测改进yolov8的香蕉成熟度检测系统,改进前后的模型指标对比,有技术文档,支持图像、视频和摄像实时检测
Spliceㅤ18 小时前
人工智能·深度学习·bert
Product-classify-bert项目BERT(Bidirectional Encoder Representations from Transformers)是由 Google 于 2018 年提出的一种语言预训练模型。其核心创新在于采用 Transformer 的编码器(Encoder)结构,通过双向自注意力机制,在建模每个 token 表示时同时整合左右两个方向的上下文信息,从而获得更准确、更丰富的语义表示。
RuiBo_Qiu18 小时前
人工智能·深度学习·机器学习·ai-native
DPO 训练 loss 公式推导在传统的 RLHF 中,第一步是训练一个奖励模型(Reward Model, 简称 RM) rϕ(x,y)r_\phi(x, y)rϕ(x,y)。
星川皆无恙18 小时前
pytorch·深度学习·transformer
Vision Transformer学习笔记:从 Attention 核心理论到 PyTorch 源码实战“An Image is Worth 16x16 Words” —— 一张图片等价于 16×16 的"单词"