batch

江南十四行7 天前
pytorch·cnn·batch
CNN进阶:Batch Normalization与Layer Normalization对比 + 网络结构设计与PyTorch实现在深度学习的实际应用中,随着网络层数的增加,训练难度也随之上升。为了加速训练、提高稳定性、防止过拟合,研究者提出了多种归一化方法和正则化技术。本文将以CNN为例,深入探讨Batch Normalization (BN) 和 Layer Normalization (LN) 的原理与差异,并结合一个具体的CNN网络结构,展示如何在PyTorch中实现BN、Dropout等模块。
DevilSeagull8 天前
开发语言·windows·后端·batch·语言
Windows 批处理 (Batch) 编程: 从入门到入土. (一) 基础概念与环境配置为了Windows 批处理(Batch)技术进行一次全面、深入且细致的系统性剖析. 批处理作为一种内置于 Windows 系统的命令行脚本语言, 其功能远比表面看起来更为强大和复杂, 本教程力求为读者构建一个从入门到精通, 乃至具备安全攻防视角的批处理知识体系.
前端摸鱼匠19 天前
开发语言·人工智能·面试·求职招聘·batch
【AI大模型春招面试题22】层归一化(Layer Norm)与批归一化(Batch Norm)的区别?为何大模型更倾向于使用Layer Norm?你好!咱们直接切入正题。这道题在LLM(大语言模型)面试中属于**“必考题”,但很多候选人只能背出“训练稳定性”这种万金油答案,缺乏对序列数据特性**、显存开销以及推理阶段行为的深度理解。
前端摸鱼匠19 天前
开发语言·人工智能·面试·求职招聘·batch
【AI大模型春招面试题23】大模型的参数量、计算量如何计算?FLOPs与FLOPS的区别?既然今年是2026年,大模型参数量早就突破了万亿甚至十万亿级别,理解这些计算细节对于做分布式训练优化(如3D并行、MoE路由)更是至关重要。
昵称小白23 天前
深度学习·batch
图像在深度学习里是怎么表示的:像素、通道、tensor、batch(二)这一篇要解决一个非常关键的问题:图像为什么能送进神经网络?你平时看到的是“人、车、猫、路灯、天空”。 但神经网络并不直接看到这些语义,它先看到的是:
DeepModel1 个月前
开发语言·人工智能·机器学习·kmeans·batch
通俗易懂讲透 Mini-Batch K-meansMini-Batch K-means 就是标准 K-means 的高速版,专门解决大数据跑不动的问题。本文用大白话+通俗案例+核心公式+可直接运行代码,从零讲透,适合课堂笔记、实验报告。
小布的学习手记1 个月前
人工智能·深度学习·batch
深度学习里的“自动稳压器”:通俗解读批量规范化(Batch Normalization)版权声明:本文同步发布于个人博客。欢迎交流与转载,但请务必注明出处。导读:如果你正在训练深层神经网络,是否遇到过训练慢如蜗牛、学习率稍大就发散、或者网络深了就不收敛的烦恼?今天我们要聊的批量规范化(Batch Normalization,简称 BN),就是解决这些问题的“神器”。它让训练深层网络变得像搭积木一样简单。本文将抛开复杂的数学公式,用最通俗的语言带你理解它的核心原理。
Huanzhi_Lin1 个月前
服务器·前端·nginx·batch·静态资源服务器
Nginx本地资源服务器-常用脚本
清空mega1 个月前
网络·深度学习·batch
动手学深度学习|批量归一化(Batch Normalization)超详细讲解:为什么它能让深层网络更容易训练?这一节很重要,因为从这里开始,你会发现:卷积神经网络的进步,不只是来自“结构怎么设计”,还来自“训练怎么更稳定”。
bIo7lyA8v1 个月前
数据库·sql·batch
从 ChangeTracker 到 SQL Batch 的性能诊断与优化真实场景:订单系统在白天吞吐稳定,凌晨高峰出现周期性尖峰。接口平均耗时变化不大,但 P95 从 80ms 抬到 420ms,数据库 CPU 也出现波峰。
无籽西瓜a1 个月前
windows·batch·cmd·自动化工具
详解bat脚本:语法、常见用法、注意事项、示例最近在做环境检查和项目的构建打包时,发现有些麻烦,然后发现用bat脚本很方便,故总结本文,如有错误,请评论区指出
zhangfeng11332 个月前
人工智能·算法·batch
`transformers` 的 `per_device_train_batch_size` 不支持小于 1 的浮点数值,llamafactory 支持transformers 的 per_device_train_batch_size 不支持小于 1 的浮点数值(比如 0.5)。这个参数必须是正整数(int 类型),代表每个设备上的样本数量。
qq1315306242 个月前
unity·游戏引擎·batch
Unity 渲染优化核心总结(Draw Call / SetPass / Batch 全体系)一、核心概念(必须讲清楚)👉 本质:CPU 向 GPU 提交一次渲染命令 一个 Mesh + 一个 Material ≈ 一个 Draw Call(如果材质是图片,那就是一个Mesh一个DrawCall) CPU 负责组织数据 → GPU 负责执行 📌 问题本质: Draw Call 多 → CPU 负担重 → GPU 反而可能在“等”
ps酷教程2 个月前
spring·batch
spring batch动态示例及原理先写个100条数据 ,待会去读关键就在这里,只要stepExecution是唯一的,那么获取的stepContext就是同一个,那么如果一个step开了多线程去跑,那么肯定能保证stepExecution是同一个,那么stepContext就是所有线程所共享,那么执行step步骤的不同线程中获取的就是同一个stepContext。
ps酷教程2 个月前
spring·batch
spring batch动态示例
月光有害3 个月前
开发语言·深度学习·batch
深入解析批归一化 (Batch Normalization): 稳定并加速深度学习的基石在深度神经网络(DNN)的演进历程中,批归一化(Batch Normalization, BN)的提出无疑是一个里程碑式的创新。它不仅显著加速了模型的收敛速度,还增强了训练的稳定性,甚至在一定程度上起到了正则化的作用。
数形长夏3 个月前
架构·bash·batch
命令行界面的神秘符号,是上一代程序复用的尝试打开终端或命令提示符,看到 $、|、> 这些符号,就会觉得它们带着一种古老的、神秘的气息。这些符号代表的运行机制,是计算机早期阶段程序复用与交互的重要尝试,它们所承载的设计思想,至今仍深刻影响着软件架构。
大模型玩家七七3 个月前
android·java·开发语言·网络·人工智能·batch
效果评估:如何判断一个祝福 AI 是否“走心”在大模型项目里,评估往往被认为是一个“技术收尾”的环节:但一旦你进入创意生成类任务,比如春节祝福、文案创作、风格写作,这套方法几乎立刻失效。
闻哥3 个月前
java·spring boot·面试·kafka·linq·batch
Kafka核心优化机制:Batch+Request底层原理与缓冲池设计深度解析在大数据高吞吐场景下,Kafka的性能优势毋庸置疑,而其客户端的Batch(批量消息)+Request(批量请求) 机制是实现高吞吐的核心基石。这套机制基于TCP协议做了上层封装优化,通过“数据打包”减少网络IO次数,再配合专属的缓冲池机制解决JVM GC问题,让Kafka在海量消息传输中保持高效稳定。
大模型玩家七七3 个月前
java·开发语言·数据库·安全·batch
基于语义切分 vs 基于结构切分的实际差异在 RAG 项目里,切分方式通常是最早被确定的部分之一:而且在当时,这个选择往往显得并不重要:“反正后面还有 embedding、TopK、rerank、模型兜底。”