技术栈
深度学习
AI视觉网奇
32 分钟前
人工智能
·
深度学习
生成GeoGebra
目录mcp生成ggb代码:二、有没有开源模型?❌ 专门“GeoGebra生成”的模型✅ 可以替代的开源模型
古希腊掌管代码的神THU
1 小时前
人工智能
·
深度学习
·
自然语言处理
【清华代码熊】图解 Gemma 4 架构设计细节
📌 本期图解 Google 开源Gemma 4 架构设计细节,其中端侧模型的架构上有很多值得一看的设计。
Purple Coder
1 小时前
人工智能
·
rnn
·
深度学习
7-RNN 循环网络层
文本数据具有序列性一次
大写的z先生
1 小时前
人工智能
·
深度学习
【深度学习 | 论文精读】Qwen-VL:从“纯文本”到“火眼金睛”,通向多模态大模型的进阶之路
在 2023 年之前,大语言模型(LLM)虽能出口成章,却身处“黑暗”。随着多模态大模型(LVLM)的爆发,如何让模型既能“看懂大意”又能“抠出细节”成了技术高地。
workflower
1 小时前
人工智能
·
深度学习
·
设计模式
·
软件工程
·
软件构建
·
制造
深度学习是通用型人工智能的基础
研究人员使用一种称为深度学习的流程来构建通用型人工智能模型,该流程训练模型通过示例进 行学习 (41)。不同于软件工程,深度学习模型可学会根据数据来完成任务,而不依赖手写指令。通过处理大量数据(如图像、文本或音频),这些模型能够发现表示这些数据的方法,从而创建对模式(patterns)(如形状、词语关联或声音结构)的内部表示(internal representations),帮助模型识别其中的关系,并生成与其训练目标一致的输出。然后,它们利用这些学到的内部表征作为抽象特征(abstractfeature
卡梅德生物科技小能手
2 小时前
经验分享
·
深度学习
·
生活
CD40LG(CD40配体)靶点深度解析:免疫调控机制与抗体药物工程化策略
在免疫学与生物制药研发领域,共刺激分子CD40LG(CD40配体,又称CD154)始终占据着核心地位。作为肿瘤坏死因子(TNF)超家族的关键成员,CD40LG通过与抗原呈递细胞(APC)表面的CD40受体结合,在T-B细胞协作、炎症应答及免疫耐受中发挥着“开关”作用。本文将从分子作用机制、上市药物的工程化改造策略以及未来研发趋势三个维度,系统梳理该靶点的科研逻辑与技术路径。
清空mega
2 小时前
人工智能
·
深度学习
动手学深度学习|深度学习硬件基础:CPU 和 GPU 到底有什么区别?为什么训练模型更喜欢 GPU?
学完前面的卷积神经网络、批量归一化、残差网络之后,很多同学会慢慢注意到一个非常现实的问题:模型会写了,代码也能跑了,但为什么有时候训练特别慢?
泰恒
2 小时前
人工智能
·
深度学习
·
机器学习
计算机体系结构基础
计算机体系结构是程序员、嵌入式开发者与硬件设计者必须掌握的核心基础,它研究计算机硬件系统的逻辑组织、功能划分、指令执行流程以及软硬件之间的协同方式。通俗来说,计算机体系结构回答了三个根本问题:计算机由哪些核心部件构成?数据和指令如何在内部流动?程序如何被高效执行?从早期的电子管计算机,到如今的多核CPU、异构计算、NPU加速芯片,体系结构始终是计算机技术发展的主线。对于智能小车、嵌入式开发、AI模型部署等实践场景,理解体系结构能够帮助开发者更合理地利用硬件资源、优化程序性能、提升系统运行效率。
花千树-010
2 小时前
人工智能
·
深度学习
·
ai
·
语音识别
·
tts
IndexTTS2 推理性能分析
IndexTTS2 是典型的自回归模型(逐 token 生成),对 GPU 性能特别敏感。➡️ 使用显卡能提升 8 倍 ~ 80 倍 (取决于 GPU 型号、批量、FP16 支持等)
带娃的IT创业者
2 小时前
人工智能
·
深度学习
·
神经网络
·
transformer
·
架构设计
·
mlp
MLP vs Transformer:不同问题用不同工具
📚 《从零到一造大脑:AI架构入门之旅》专栏 专栏定位:面向中学生、大学生和 AI 初学者的科普专栏,用大白话和生活化比喻带你从零理解人工智能 本系列共 42 篇,分为八大模块:
code_pgf
3 小时前
人工智能
·
深度学习
·
transformer
Transformer 原理讲解及可视化算子操作
Transformer 是一种完全基于注意力机制(Attention) 的序列建模架构。与传统 RNN/LSTM 不同,Transformer 不依赖递归;与传统 CNN 不同,它也不依赖卷积来传播长程依赖。其核心思想是:
碑 一
3 小时前
人工智能
·
深度学习
·
计算机视觉
视频分割VisTR算法
CVPR 2021 | 基于Transformer的端到端视频实例分割方法 - 知乎目录第一个思考是:视频本身是序列级别的数据,能否直接将其建模为序列预测的任务?比如,借鉴自然语言处理(NLP)任务的思想,将视频实例分割建模为序列到序列(Seq2Seq)的任务,即给定多帧图像作为输入,直接输出多帧的分割Mask序列,这时需要一个能够同时对多帧进行建模的模型。
毕胜客源码
3 小时前
人工智能
·
python
·
深度学习
·
yolo
·
django
改进yolov8的香蕉成熟度检测系统,改进前后的模型指标对比,有技术文档,支持图像、视频和摄像实时检测
改进yolov8的香蕉成熟度检测系统,改进前后的模型指标对比,有技术文档,支持图像、视频和摄像实时检测
Spliceㅤ
3 小时前
人工智能
·
深度学习
·
bert
Product-classify-bert项目
BERT(Bidirectional Encoder Representations from Transformers)是由 Google 于 2018 年提出的一种语言预训练模型。其核心创新在于采用 Transformer 的编码器(Encoder)结构,通过双向自注意力机制,在建模每个 token 表示时同时整合左右两个方向的上下文信息,从而获得更准确、更丰富的语义表示。
RuiBo_Qiu
4 小时前
人工智能
·
深度学习
·
机器学习
·
ai-native
DPO 训练 loss 公式推导
在传统的 RLHF 中,第一步是训练一个奖励模型(Reward Model, 简称 RM) rϕ(x,y)r_\phi(x, y)rϕ(x,y)。
星川皆无恙
4 小时前
pytorch
·
深度学习
·
transformer
Vision Transformer学习笔记:从 Attention 核心理论到 PyTorch 源码实战
“An Image is Worth 16x16 Words” —— 一张图片等价于 16×16 的"单词"
想吃砸到牛顿的苹果的籽
4 小时前
python
·
深度学习
·
yolo部署rk3588
rk3588部署yolov5需要用rknn_toolkit2,安装环境。
参考作者:https://blog.csdn.net/xgboost6farmer/article/details/154391119?ops_request_misc=&request_id=&biz_id=102&utm_term=conda%20rk3588%E5%AE%89%E8%A3%85RKNN-Toolkit2&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-0-154391119.
龙文浩_
4 小时前
人工智能
·
pytorch
·
深度学习
·
神经网络
·
自然语言处理
AI中NLP的自然语言处理中的文本预处理与特征工程
AI中NLP的自然语言处理中的文本预处理与特征工程
Pelb
4 小时前
人工智能
·
深度学习
·
数学建模
求导 z = x + y
基于链式法则的反向传播 计算图的反向传播从右到左传播信号。反向传播的计算顺序是,先将节点的输入信号乘以节点的局部导数(偏导数),然后再传递给下一个节点。 ∂L∂x=∂L∂z×∂z∂x=∂L∂z×1=∂L∂z \displaystyle \frac{\partial L}{\partial x} = \frac{\partial L}{\partial z} \times \frac{\partial z}{\partial x} = \frac{\partial L}{\partial z} \times
龙文浩_
5 小时前
人工智能
·
pytorch
·
深度学习
·
神经网络
·
自然语言处理
AI中NLP的循环神经网络及其演进
AI中NLP的循环神经网络及其演进