深度学习

AI视觉网奇32 分钟前
人工智能·深度学习
生成GeoGebra目录mcp生成ggb代码:二、有没有开源模型?❌ 专门“GeoGebra生成”的模型✅ 可以替代的开源模型
古希腊掌管代码的神THU1 小时前
人工智能·深度学习·自然语言处理
【清华代码熊】图解 Gemma 4 架构设计细节📌 本期图解 Google 开源Gemma 4 架构设计细节,其中端侧模型的架构上有很多值得一看的设计。
Purple Coder1 小时前
人工智能·rnn·深度学习
7-RNN 循环网络层文本数据具有序列性一次
大写的z先生1 小时前
人工智能·深度学习
【深度学习 | 论文精读】Qwen-VL:从“纯文本”到“火眼金睛”,通向多模态大模型的进阶之路在 2023 年之前,大语言模型(LLM)虽能出口成章,却身处“黑暗”。随着多模态大模型(LVLM)的爆发,如何让模型既能“看懂大意”又能“抠出细节”成了技术高地。
workflower1 小时前
人工智能·深度学习·设计模式·软件工程·软件构建·制造
深度学习是通用型人工智能的基础研究人员使用一种称为深度学习的流程来构建通用型人工智能模型,该流程训练模型通过示例进 行学习 (41)。不同于软件工程,深度学习模型可学会根据数据来完成任务,而不依赖手写指令。通过处理大量数据(如图像、文本或音频),这些模型能够发现表示这些数据的方法,从而创建对模式(patterns)(如形状、词语关联或声音结构)的内部表示(internal representations),帮助模型识别其中的关系,并生成与其训练目标一致的输出。然后,它们利用这些学到的内部表征作为抽象特征(abstractfeature
卡梅德生物科技小能手2 小时前
经验分享·深度学习·生活
CD40LG(CD40配体)靶点深度解析:免疫调控机制与抗体药物工程化策略在免疫学与生物制药研发领域,共刺激分子CD40LG(CD40配体,又称CD154)始终占据着核心地位。作为肿瘤坏死因子(TNF)超家族的关键成员,CD40LG通过与抗原呈递细胞(APC)表面的CD40受体结合,在T-B细胞协作、炎症应答及免疫耐受中发挥着“开关”作用。本文将从分子作用机制、上市药物的工程化改造策略以及未来研发趋势三个维度,系统梳理该靶点的科研逻辑与技术路径。
清空mega2 小时前
人工智能·深度学习
动手学深度学习|深度学习硬件基础:CPU 和 GPU 到底有什么区别?为什么训练模型更喜欢 GPU?学完前面的卷积神经网络、批量归一化、残差网络之后,很多同学会慢慢注意到一个非常现实的问题:模型会写了,代码也能跑了,但为什么有时候训练特别慢?
泰恒2 小时前
人工智能·深度学习·机器学习
计算机体系结构基础计算机体系结构是程序员、嵌入式开发者与硬件设计者必须掌握的核心基础,它研究计算机硬件系统的逻辑组织、功能划分、指令执行流程以及软硬件之间的协同方式。通俗来说,计算机体系结构回答了三个根本问题:计算机由哪些核心部件构成?数据和指令如何在内部流动?程序如何被高效执行?从早期的电子管计算机,到如今的多核CPU、异构计算、NPU加速芯片,体系结构始终是计算机技术发展的主线。对于智能小车、嵌入式开发、AI模型部署等实践场景,理解体系结构能够帮助开发者更合理地利用硬件资源、优化程序性能、提升系统运行效率。
花千树-0102 小时前
人工智能·深度学习·ai·语音识别·tts
IndexTTS2 推理性能分析IndexTTS2 是典型的自回归模型(逐 token 生成),对 GPU 性能特别敏感。➡️ 使用显卡能提升 8 倍 ~ 80 倍 (取决于 GPU 型号、批量、FP16 支持等)
带娃的IT创业者2 小时前
人工智能·深度学习·神经网络·transformer·架构设计·mlp
MLP vs Transformer:不同问题用不同工具📚 《从零到一造大脑:AI架构入门之旅》专栏 专栏定位:面向中学生、大学生和 AI 初学者的科普专栏,用大白话和生活化比喻带你从零理解人工智能 本系列共 42 篇,分为八大模块:
code_pgf3 小时前
人工智能·深度学习·transformer
Transformer 原理讲解及可视化算子操作Transformer 是一种完全基于注意力机制(Attention) 的序列建模架构。与传统 RNN/LSTM 不同,Transformer 不依赖递归;与传统 CNN 不同,它也不依赖卷积来传播长程依赖。其核心思想是:
碑 一3 小时前
人工智能·深度学习·计算机视觉
视频分割VisTR算法CVPR 2021 | 基于Transformer的端到端视频实例分割方法 - 知乎目录第一个思考是:视频本身是序列级别的数据,能否直接将其建模为序列预测的任务?比如,借鉴自然语言处理(NLP)任务的思想,将视频实例分割建模为序列到序列(Seq2Seq)的任务,即给定多帧图像作为输入,直接输出多帧的分割Mask序列,这时需要一个能够同时对多帧进行建模的模型。
毕胜客源码3 小时前
人工智能·python·深度学习·yolo·django
改进yolov8的香蕉成熟度检测系统,改进前后的模型指标对比,有技术文档,支持图像、视频和摄像实时检测改进yolov8的香蕉成熟度检测系统,改进前后的模型指标对比,有技术文档,支持图像、视频和摄像实时检测
Spliceㅤ3 小时前
人工智能·深度学习·bert
Product-classify-bert项目BERT(Bidirectional Encoder Representations from Transformers)是由 Google 于 2018 年提出的一种语言预训练模型。其核心创新在于采用 Transformer 的编码器(Encoder)结构,通过双向自注意力机制,在建模每个 token 表示时同时整合左右两个方向的上下文信息,从而获得更准确、更丰富的语义表示。
RuiBo_Qiu4 小时前
人工智能·深度学习·机器学习·ai-native
DPO 训练 loss 公式推导在传统的 RLHF 中,第一步是训练一个奖励模型(Reward Model, 简称 RM) rϕ(x,y)r_\phi(x, y)rϕ(x,y)。
星川皆无恙4 小时前
pytorch·深度学习·transformer
Vision Transformer学习笔记:从 Attention 核心理论到 PyTorch 源码实战“An Image is Worth 16x16 Words” —— 一张图片等价于 16×16 的"单词"
想吃砸到牛顿的苹果的籽4 小时前
python·深度学习·yolo部署rk3588
rk3588部署yolov5需要用rknn_toolkit2,安装环境。参考作者:https://blog.csdn.net/xgboost6farmer/article/details/154391119?ops_request_misc=&request_id=&biz_id=102&utm_term=conda%20rk3588%E5%AE%89%E8%A3%85RKNN-Toolkit2&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-0-154391119.
龙文浩_4 小时前
人工智能·pytorch·深度学习·神经网络·自然语言处理
AI中NLP的自然语言处理中的文本预处理与特征工程AI中NLP的自然语言处理中的文本预处理与特征工程
Pelb4 小时前
人工智能·深度学习·数学建模
求导 z = x + y基于链式法则的反向传播 计算图的反向传播从右到左传播信号。反向传播的计算顺序是,先将节点的输入信号乘以节点的局部导数(偏导数),然后再传递给下一个节点。 ∂L∂x=∂L∂z×∂z∂x=∂L∂z×1=∂L∂z \displaystyle \frac{\partial L}{\partial x} = \frac{\partial L}{\partial z} \times \frac{\partial z}{\partial x} = \frac{\partial L}{\partial z} \times
龙文浩_5 小时前
人工智能·pytorch·深度学习·神经网络·自然语言处理
AI中NLP的循环神经网络及其演进AI中NLP的循环神经网络及其演进