Day 36GPU的训练以及类的call方法

1.模型在 GPU 上训练,主要是将模型和数据迁移到 GPU 设备上。

GPU在计算的时候,相较于cpu多了3个时间上的开销

  1. 数据传输开销 (CPU 内存 <-> GPU 显存)

  2. 核心启动开销 (GPU 核心启动时间)

  3. 性能浪费:计算量和数据批次

losses.append(loss.item()) 本身是轻量级操作(只是把一个数值存到列表里,耗时极短,可能只有微秒级)。而深度学习训练的主要耗时在:GPU 的前向 / 反向传播(占总耗时的 95% 以上);数据加载、内存拷贝等其他系统操作。且剩余时长本身是估算值,系统动态随机因素影响。

2.__call__方法让类的实例拥有了 "函数调用" 的能力

python 复制代码
# 定义一个类,实现__call__方法
class MyCalculator:
    def __init__(self, factor):
        self.factor = factor  # 初始化一个乘法因子
    
    def __call__(self, x):
        # 当实例被调用时,执行这个方法
        return x * self.factor
 
# 实例化:因子为2
calc = MyCalculator(2)
 
# 把实例当作函数调用
result = calc(5)
print(result)  # 输出10(5*2)

@浙大疏锦行

相关推荐
Ricardo-Yang4 分钟前
# BPE Tokenizer:从训练规则到推理切分的完整理解
人工智能·深度学习·算法·机器学习·计算机视觉
GISer_Jing6 分钟前
AI Agent Skills 发现指南:前端工程化与自动化全景
前端·人工智能·自动化
心.c6 分钟前
从 Function Call 到渐进式 Skill:大模型能力扩展范式的演进与落地实践
前端·人工智能·react.js·ai·react
IT_陈寒8 分钟前
Vue的响应式更新把我坑惨了,原来问题出在这里
前端·人工智能·后端
智慧地球(AI·Earth)9 分钟前
用 Python 构建一个“记性好”的 AI 助手:JSON本地存储和向量检索
人工智能·python·json
_张一凡11 分钟前
【大语言模型学习】2026年十大LLM训练数据集汇总
人工智能·学习·语言模型·aigc·大模型训练·llm数据集
程序员三明治12 分钟前
【AI探索】程序员到底该怎么理解 LLM?
人工智能·ai·大模型·llm·量化·java后端·api调用
Alice-YUE16 分钟前
【前端面试之ai概念】大白话讲清 Agent、MCP、Skill、Function Calling、RAG
前端·人工智能·学习·aegnt
打不了嗝 ᥬ᭄22 分钟前
一镜通古今:Rokid AI Glasses 驱动的古建筑文物全流程智能讲解终端
人工智能
格林威29 分钟前
如何用 eBPF 监控 GigE Vision 相机网络性能
网络·人工智能·数码相机·yolo·计算机视觉·视觉检测·工业相机