技术栈
深度学习
简简单单做算法
13 小时前
深度学习
·
matlab
·
lstm
·
transformer
·
时间序列预测
·
ga遗传优化
·
电池剩余寿命预测
基于GA遗传优化的Transformer-LSTM网络模型的时间序列预测算法matlab性能仿真
目录1.前言2.算法测试效果图预览3.算法运行软件版本4.部分核心程序5.算法理论概述5.1 各模块核心原理
龙文浩_
14 小时前
人工智能
·
pytorch
·
深度学习
·
神经网络
·
自然语言处理
AI中NLP的文本张量表示方法在自然语言处理中的演进与应用
AI中NLP的文本张量表示方法在自然语言处理中的演进与应用
极光代码工作室
14 小时前
深度学习
·
nlp
·
bert
·
文本分类
基于BERT的新闻文本分类系统
随着互联网信息爆炸式增长,新闻资讯日均产量超千万条,人工审核与归类已无法满足时效性与准确性需求。传统机器学习方法(如TF-IDF+SVM)在语义理解能力上存在显著瓶颈,难以捕捉上下文依赖与隐含情感倾向。近年来,预训练语言模型(PLM)尤其是BERT(Bidirectional Encoder Representations from Transformers)凭借其双向注意力机制与深层上下文建模能力,在自然语言理解任务中展现出革命性性能提升。本文设计并实现了一套端到端的基于BERT的新闻文本分类系统,面向
XINVRY-FPGA
15 小时前
arm开发
·
人工智能
·
嵌入式硬件
·
深度学习
·
fpga开发
·
硬件工程
·
fpga
XC7VX690T-2FFG1157I Xilinx AMD Virtex-7 FPGA
XC7VX690T-2FFG1157I 是 Xilinx 推出的 Virtex-7 系列中的旗舰级 FPGA 器件之一,基于 28nm HPL(High Performance Low Power)工艺制造,在性能、功耗与集成度之间实现了高度平衡。该器件主要面向高端通信系统、高性能计算(HPC)、测试测量以及高端视频处理等对数据吞吐能力和实时处理能力。
AI视觉网奇
15 小时前
人工智能
·
深度学习
生成GeoGebra
目录mcp生成ggb代码:二、有没有开源模型?❌ 专门“GeoGebra生成”的模型✅ 可以替代的开源模型
古希腊掌管代码的神THU
16 小时前
人工智能
·
深度学习
·
自然语言处理
【清华代码熊】图解 Gemma 4 架构设计细节
📌 本期图解 Google 开源Gemma 4 架构设计细节,其中端侧模型的架构上有很多值得一看的设计。
Purple Coder
16 小时前
人工智能
·
rnn
·
深度学习
7-RNN 循环网络层
文本数据具有序列性一次
大写的z先生
16 小时前
人工智能
·
深度学习
【深度学习 | 论文精读】Qwen-VL:从“纯文本”到“火眼金睛”,通向多模态大模型的进阶之路
在 2023 年之前,大语言模型(LLM)虽能出口成章,却身处“黑暗”。随着多模态大模型(LVLM)的爆发,如何让模型既能“看懂大意”又能“抠出细节”成了技术高地。
workflower
16 小时前
人工智能
·
深度学习
·
设计模式
·
软件工程
·
软件构建
·
制造
深度学习是通用型人工智能的基础
研究人员使用一种称为深度学习的流程来构建通用型人工智能模型,该流程训练模型通过示例进 行学习 (41)。不同于软件工程,深度学习模型可学会根据数据来完成任务,而不依赖手写指令。通过处理大量数据(如图像、文本或音频),这些模型能够发现表示这些数据的方法,从而创建对模式(patterns)(如形状、词语关联或声音结构)的内部表示(internal representations),帮助模型识别其中的关系,并生成与其训练目标一致的输出。然后,它们利用这些学到的内部表征作为抽象特征(abstractfeature
卡梅德生物科技小能手
16 小时前
经验分享
·
深度学习
·
生活
CD40LG(CD40配体)靶点深度解析:免疫调控机制与抗体药物工程化策略
在免疫学与生物制药研发领域,共刺激分子CD40LG(CD40配体,又称CD154)始终占据着核心地位。作为肿瘤坏死因子(TNF)超家族的关键成员,CD40LG通过与抗原呈递细胞(APC)表面的CD40受体结合,在T-B细胞协作、炎症应答及免疫耐受中发挥着“开关”作用。本文将从分子作用机制、上市药物的工程化改造策略以及未来研发趋势三个维度,系统梳理该靶点的科研逻辑与技术路径。
清空mega
16 小时前
人工智能
·
深度学习
动手学深度学习|深度学习硬件基础:CPU 和 GPU 到底有什么区别?为什么训练模型更喜欢 GPU?
学完前面的卷积神经网络、批量归一化、残差网络之后,很多同学会慢慢注意到一个非常现实的问题:模型会写了,代码也能跑了,但为什么有时候训练特别慢?
泰恒
16 小时前
人工智能
·
深度学习
·
机器学习
计算机体系结构基础
计算机体系结构是程序员、嵌入式开发者与硬件设计者必须掌握的核心基础,它研究计算机硬件系统的逻辑组织、功能划分、指令执行流程以及软硬件之间的协同方式。通俗来说,计算机体系结构回答了三个根本问题:计算机由哪些核心部件构成?数据和指令如何在内部流动?程序如何被高效执行?从早期的电子管计算机,到如今的多核CPU、异构计算、NPU加速芯片,体系结构始终是计算机技术发展的主线。对于智能小车、嵌入式开发、AI模型部署等实践场景,理解体系结构能够帮助开发者更合理地利用硬件资源、优化程序性能、提升系统运行效率。
花千树-010
17 小时前
人工智能
·
深度学习
·
ai
·
语音识别
·
tts
IndexTTS2 推理性能分析
IndexTTS2 是典型的自回归模型(逐 token 生成),对 GPU 性能特别敏感。➡️ 使用显卡能提升 8 倍 ~ 80 倍 (取决于 GPU 型号、批量、FP16 支持等)
带娃的IT创业者
17 小时前
人工智能
·
深度学习
·
神经网络
·
transformer
·
架构设计
·
mlp
MLP vs Transformer:不同问题用不同工具
📚 《从零到一造大脑:AI架构入门之旅》专栏 专栏定位:面向中学生、大学生和 AI 初学者的科普专栏,用大白话和生活化比喻带你从零理解人工智能 本系列共 42 篇,分为八大模块:
code_pgf
17 小时前
人工智能
·
深度学习
·
transformer
Transformer 原理讲解及可视化算子操作
Transformer 是一种完全基于注意力机制(Attention) 的序列建模架构。与传统 RNN/LSTM 不同,Transformer 不依赖递归;与传统 CNN 不同,它也不依赖卷积来传播长程依赖。其核心思想是:
碑 一
17 小时前
人工智能
·
深度学习
·
计算机视觉
视频分割VisTR算法
CVPR 2021 | 基于Transformer的端到端视频实例分割方法 - 知乎目录第一个思考是:视频本身是序列级别的数据,能否直接将其建模为序列预测的任务?比如,借鉴自然语言处理(NLP)任务的思想,将视频实例分割建模为序列到序列(Seq2Seq)的任务,即给定多帧图像作为输入,直接输出多帧的分割Mask序列,这时需要一个能够同时对多帧进行建模的模型。
毕胜客源码
18 小时前
人工智能
·
python
·
深度学习
·
yolo
·
django
改进yolov8的香蕉成熟度检测系统,改进前后的模型指标对比,有技术文档,支持图像、视频和摄像实时检测
改进yolov8的香蕉成熟度检测系统,改进前后的模型指标对比,有技术文档,支持图像、视频和摄像实时检测
Spliceㅤ
18 小时前
人工智能
·
深度学习
·
bert
Product-classify-bert项目
BERT(Bidirectional Encoder Representations from Transformers)是由 Google 于 2018 年提出的一种语言预训练模型。其核心创新在于采用 Transformer 的编码器(Encoder)结构,通过双向自注意力机制,在建模每个 token 表示时同时整合左右两个方向的上下文信息,从而获得更准确、更丰富的语义表示。
RuiBo_Qiu
18 小时前
人工智能
·
深度学习
·
机器学习
·
ai-native
DPO 训练 loss 公式推导
在传统的 RLHF 中,第一步是训练一个奖励模型(Reward Model, 简称 RM) rϕ(x,y)r_\phi(x, y)rϕ(x,y)。
星川皆无恙
18 小时前
pytorch
·
深度学习
·
transformer
Vision Transformer学习笔记:从 Attention 核心理论到 PyTorch 源码实战
“An Image is Worth 16x16 Words” —— 一张图片等价于 16×16 的"单词"