技术栈
深度学习
凌峰的博客
28 分钟前
人工智能
·
深度学习
·
安全
基于深度学习的图像安全与隐私保护研究方向调研(中)
针对数据保护条例,未经授权不可使用他人信息。因此将采集的数据集实施人脸匿名,改变其面部特征敏感信息,使其可以使用,规避产权纠纷。
上天夭
6 小时前
人工智能
·
深度学习
·
机器学习
模型训练篇
几何变换:随机旋转(±15°)、平移(±10%)、缩放(0.8-1.2 倍)。像素级增强:颜色抖动(Hue ±5, Saturation ±15%)、高斯模糊(σ=0.5)。
Blossom.118
7 小时前
人工智能
·
python
·
深度学习
·
机器学习
·
flask
·
transformer
·
tornado
AI编译器实战:从零手写算子融合与自动调度系统
摘要:本文将撕开AI编译器的神秘面纱,从零手写一个支持算子融合、自动调度、循环优化的深度学习编译引擎。不同于调用TVM/MLIR的API,我们将完整实现Halide风格的调度原语、polyhedral模型、自动 tiling&vectorization 等核心机制。完整代码涵盖计算图构建、调度树变换、LLVM IR代码生成等模块,实测在ARM Cortex-A78上实现3x3卷积提速4.7倍,内存占用减少62%,并提供从PyTorch模型到.so库的端到端编译方案。
泰迪智能科技01
7 小时前
人工智能
·
深度学习
·
计算机视觉
分享图书推荐 | 数字图像处理实战
书号:978-7-115-62385-0主 编:杨坦,张良均副主编:王敏娟,赵丽玲,郭洁出版社:人民邮电出版社
Rabbit_QL
7 小时前
人工智能
·
深度学习
【深度学习原理】数值稳定性(二):梯度是如何在深度网络中消失与爆炸的
数值稳定性系列文章: 数值稳定性(一):为什么深度神经网络如此脆弱 数值稳定性(二):梯度是如何在深度网络中消失与爆炸的 第三篇还在写。。。
wanzhong2333
8 小时前
深度学习
·
学习
·
算法
·
cuda
·
高性能计算
CUDA学习5-矩阵乘法(共享内存版)
在未使用共享存储器(Shared Memory)时,CUDA 矩阵乘法的计算逻辑是在 SM(流多处理器)的 CUDA Core 中执行的,临时数据会优先存在寄存器(Register) 中;但 A、B 矩阵的读取、C 矩阵的写入完全依赖全局存储器(Global Memory)
Hcoco_me
9 小时前
人工智能
·
rnn
·
深度学习
·
自然语言处理
·
word2vec
大模型面试题19:梯度消失&梯度爆炸 纯白话文版
你可以把 梯度 理解成:模型训练时的「学习信号/调整指令」。 神经网络训练的过程,就是模型根据这个「指令」,一点点修改自己的参数,让自己的预测越来越准。 这个「指令」的传递规则是:从最后一层(输出层)往第一层(输入层)反向传,一层一层告诉前面的层:你的参数该往哪个方向改、改多少。
是店小二呀
10 小时前
人工智能
·
pytorch
·
深度学习
·
npu
在 AtomGit 昇腾 Atlas 800T上解锁 SGLang:零成本打造高性能推理服务
摘要:大模型的“战火”已从参数竞赛转向了推理性能的极致压榨。如何在算力上实现 0Day 模型的极速推理?本文将以开发者视角,基于 AtomGit 提供的免费昇腾 Atlas 800T 算力,实战部署最新的 Qwen2.5-7B-Instruct。我们将跳过常规的 Transformers,直接挑战适配昇腾的 SGLang 高性能框架,利用其特有的 RadixAttention 技术在 RAG 场景下实现 5倍+ 的吞吐跃,并完成 OpenAI 兼容接口的服务化封装与压测。
万事可爱^
10 小时前
人工智能
·
深度学习
·
语言模型
·
gitcode
·
本地部署
·
昇腾npu
GitCode+昇腾部署Rnj-1模型实践教程
GitCode Notebook是GitCode平台推出的云端交互式开发环境,对标Google Colab,为开发者提供了免本地配置的算力资源和一站式开发体验。其核心优势体现在三个方面:
高洁01
10 小时前
人工智能
·
深度学习
·
算法
·
机器学习
·
transformer
图神经网络初探(2)
图神经网络初探(2) 三、图神经网络类型 四、图神经网络典型应用#人工智能#具身智能#VLA#大模型#AI#LLM#Transformer 架构#AI技术前沿#A
祝余Eleanor
11 小时前
深度学习
·
神经网络
·
机器学习
Day 51 神经网络调参指南
torch中很多场景都会存在随机数介绍一下这个随机函数的几个部分1. python的随机种子,需要确保random模块、以及一些无序数据结构的一致性
算法熔炉
11 小时前
深度学习
·
面试
·
transformer
深度学习面试八股文(4)—— transformer专题
下面是 第一部分 (1-15/40):Transformer 核心原典。这部分是所有大模型面试的“必考题”。
软件算法开发
11 小时前
深度学习
·
matlab
·
lstm
·
一维时间序列预测
·
山羚羊优化
·
mgo-lstm
基于山羚羊优化的LSTM深度学习网络模型(MGO-LSTM)的一维时间序列预测算法matlab仿真
目录1.程序功能描述2.测试软件版本以及运行结果展示3.部分程序4.算法理论概述5.完整程序LSTM网络的性能高度依赖于超参数配置,其中隐含层个数是影响模型性能的关键超参数之一。传统的超参数优化方法如网格搜索、随机搜索存在效率低、易陷入局部最优等问题。山羚羊优化是一种新型元启发式优化算法,其核心是用山羚羊优化算法(MGO)自适应搜索LSTM隐含层最优神经元数量,以最小化时间序列预测误差。
LaughingZhu
11 小时前
人工智能
·
经验分享
·
深度学习
·
神经网络
·
产品运营
Product Hunt 每日热榜 | 2025-12-26
标语:本地AI Git提交生成器,专为Apple Silicon设计介绍:DiffSense 在 Apple Silicon 上使用原生的 AFM 3B 模型 gratuitamente 生成 git 提交信息。它在本地运行,实现零延迟,确保你的代码保持私密。它的特点包括可定制的信息风格和强大的别名宏功能。
吾在学习路
12 小时前
人工智能
·
深度学习
·
神经网络
·
机器学习
【CVPR 2018最佳论文】Squeeze-and-Excitation Networks
一句话概括本文:SENet 的核心思想不是“怎么卷得更深”,而是“怎么让每一层卷积更聪明”——它教会网络“自我审视”:哪些通道重要、哪些可以忽略,从而实现轻量级、通用性强、效果显著的性能提升。 关键数据:在 ResNet-50 上仅增加 0.26% FLOPs 和 10% 参数量,就达到接近 ResNet-101 的精度;ILSVRC 2017 分类冠军(Top-5 Error 仅 2.251%),相对前一年下降 25%!
Salt_0728
12 小时前
人工智能
·
python
·
深度学习
·
机器学习
DAY 47 Tensorboard的使用介绍
你作为零基础的 Python 和机器学习学习者,想要系统掌握 TensorBoard 的核心知识(发展历史与原理、常见操作、CIFAR 数据集上的 MLP/CNN 实战),我会用最通俗的语言、贴近生活的例子,配合完整的代码步骤,一步步拆解,确保你能完全理解。
酌沧
13 小时前
人工智能
·
深度学习
读懂深度学习中的梯度爆炸和梯度消失
从链式法则的数学本质出发,彻底揭开神经网络训练崩溃的真相,并掌握5大核心解决方案。反向传播是深度学习的基石,但它也是导致梯度消失和梯度爆炸的根本原因。
天天进步2015
14 小时前
人工智能
·
深度学习
【InfiniteTalk 源码分析 04】训练策略拆解:如何实现超长视频的生成稳定性?
在训练长视频模型时,简单的“端到端微调”往往会导致模型在推理长序列时出现幻觉(Hallucination)或输出中断。InfiniteTalk 的源码展示了一套成熟的生产级训练范式。
天呐草莓
14 小时前
人工智能
·
python
·
深度学习
·
算法
·
机器学习
·
数据挖掘
·
集成学习
集成学习 (ensemble learning)
集成学习 (ensemble learning) 通过构建并结合多个学习器来完成学习任务,有时也被称为多分类器系统 (multi-classifier system)、基于委员会的学习 (committee-based learning) 等。
不惑_
14 小时前
开发语言
·
人工智能
·
python
·
深度学习
通俗理解多层感知机(MLP)
在当今的科技世界中,人工智能(AI)已经成为我们日常生活的一部分。从智能手机的语音助手,到自动驾驶汽车,再到医疗诊断系统,AI 的应用无处不在。而在这些先进技术的背后,多层感知机(MLP)作为神经网络的基本形式,扮演着至关重要的角色。MLP 听起来可能有些高大上,但其实它就像是我们大脑中的神经元网络,通过简单的数学运算来模拟人类的决策过程。本文将用通俗易懂的语言,结合图例,一步步带你理解 MLP 的原理、结构、工作方式以及应用。无论你是初学者还是对 AI 感兴趣的朋友,都能从中获益。