技术栈
模型运行速度笔记: s/epoch VS s/iter
UQI-LIUWJ
2024-11-16 18:50
1 概念介绍
在模型训练中:
s/epoch
表示每个
epoch
所需的秒数,即完成一轮完整数据集训练的时间。
s/iter
表示每个
iteration
(迭代)所需的秒数,即处理一个batch的时间。
它们的关系是:
2 举例
比如我training set 样本数是10000,batch size是100,一个epoch的时间是300秒
人工智能
笔记
机器学习
上一篇:
YOLO理解
下一篇:
c++设计模式之桥接模式
相关推荐
IT古董
19 分钟前
【深度学习】常见模型-Transformer模型
人工智能
·
深度学习
·
transformer
沐雪架构师
1 小时前
AI大模型开发原理篇-2:语言模型雏形之词袋模型
人工智能
·
语言模型
·
自然语言处理
python算法(魔法师版)
2 小时前
深度学习深度解析:从基础到前沿
人工智能
·
深度学习
kakaZhui
2 小时前
【llm对话系统】大模型源码分析之 LLaMA 位置编码 RoPE
人工智能
·
深度学习
·
chatgpt
·
aigc
·
llama
struggle2025
3 小时前
一个开源 GenBI AI 本地代理(确保本地数据安全),使数据驱动型团队能够与其数据进行互动,生成文本到 SQL、图表、电子表格、报告和 BI
人工智能
·
深度学习
·
目标检测
·
语言模型
·
自然语言处理
·
数据挖掘
·
集成学习
佛州小李哥
3 小时前
通过亚马逊云科技Bedrock打造自定义AI智能体Agent(上)
人工智能
·
科技
·
ai
·
语言模型
·
云计算
·
aws
·
亚马逊云科技
追求源于热爱!
4 小时前
记5(一元逻辑回归+线性分类器+多元逻辑回归
算法
·
机器学习
·
逻辑回归
云空
4 小时前
《DeepSeek 网页/API 性能异常(DeepSeek Web/API Degraded Performance):网络安全日志》
运维
·
人工智能
·
web安全
·
网络安全
·
开源
·
网络攻击模型
·
安全威胁分析
AIGC大时代
4 小时前
对比DeepSeek、ChatGPT和Kimi的学术写作关键词提取能力
论文阅读
·
人工智能
·
chatgpt
·
数据分析
·
prompt
Fhd-学习笔记
5 小时前
《大语言模型》综述学习笔记
笔记
·
学习
·
语言模型
热门推荐
01
DeepSeek r1本地安装全指南
02
【deepseek】deepseek-r1本地部署-第一步:下载LM Studio
03
将DeepSeek接入Word,打造AI办公助手
04
DeepSeek学术写作测评第一弹:论文润色,中译英效果如何?
05
使用Ollama 在Ubuntu运行deepseek大模型:以DeepSeek-coder为例
06
Dell服务器升级ubuntu 22.04失败解决
07
DeepSeek 云端部署,释放无限 AI 潜力!
08
新鲜速递:DeepSeek-R1开源大模型本地部署实战—Ollama + MaxKB 搭建RAG检索增强生成应用
09
半导体应用系统一些小知识收集(strip&wafer mapping,EAP&scada)
10
deepseek v1手机端部署