深度学习的笔记

1. 从huggingface上仅下载pytorch模型权重和配置文件到服务器

python 复制代码
import os
import shutil
from huggingface_hub import snapshot_download

# 直接指定模型和下载路径
model_name = 'openai/clip-vit-base-patch32'
download_path = '/home/xxx/.cache/huggingface/hub/models--anas-awadalla--mpt-7b'

# 确保下载路径存在
os.makedirs(download_path, exist_ok=True)
print('*'*10, f'Start downloading {model_name}', '*'*10)

# 下载模型
snapshot_download(repo_id=model_name,
                  cache_dir=download_path,
                  local_dir=download_path,
                  local_dir_use_symlinks=False,
                  ignore_patterns=["*.h5","*safetensors","*msgpack"],
                  force_download=True,
                  resume_download=False,
                  etag_timeout=60)


print('*'*10, 'Download finish', '*'*10)

# 清理下载的模型目录
for item in os.listdir(download_path):
    if os.path.isdir(os.path.join(download_path, item)) and item.startswith('models'):
        shutil.rmtree(os.path.join(download_path, item))

2. 从huggingface的镜像站上下载数据集:

python 复制代码
import os
from datasets import load_dataset

os.environ["HF_DATASETS_BASE_URL"] = "https://hf-mirror.com/"

# 数据集名称
dataset_name = 'lukaemon/mmlu'
download_path = '/data/share/xxx/'

# 子集列表
subsets = ['subset1', 'subset2', 'subset3']  # 替换为实际的子集名称

# 确保下载路径存在
os.makedirs(download_path, exist_ok=True)
print('*' * 10, f'Start downloading subsets of {dataset_name}', '*' * 10)

# 下载数据集的每个子集
for subset in subsets:
    print(f'Downloading subset: {subset}')
    dataset = load_dataset(dataset_name, subset, cache_dir=download_path,trust_remote_code=True)["test"]
    print(f'Finished downloading subset: {subset}')

print('*' * 10, 'Download finish', '*' * 10)

3. 关于对数概率(logits)和softmax函数:

对数概率(Logits):指的是在应用 softmax 函数之前的层的输出。它们是模型输出的原始未归一化的分数,可以理解为模型对每个类别的信心度量。这些分数可以是任意实数值,不限于0到1之间。

Softmax 函数是一种将对数概率(或任意实数值向量)转换成概率分布的方法。具体来说,它会对每个输出应用指数函数,然后对这些指数值进行归一化,使它们的和为1,从而转换为概率分布。

总结一下,对数概率(logits)是 softmax 函数的输入,而 softmax 函数的输出是一个概率分布,即模型对各个类别的预测概率。这两者经常一起使用,尤其是在处理分类问题时。

4. 你可以通过指定--name或-n参数来创建并命名一个新的Conda环境:

bash 复制代码
conda env create -f environment.yml #改成如下:

conda env create -f environment.yml -n openflamingov1

5. epoch , batch ,step的关系

bash 复制代码
step = batch number * epoch number,解释如下:
step表示参数更新的次数

假设有1000个数据,我想遍历10个epoch,我假设 batch_size = 10,也就是一次处理10张图片,
那么1个epoch 会有 1000/10 = 100个batch,也就是batch number = 100

运行完一个batch_size的数据之后才会 计算loss ,进行反向传播,更新参数,step+1,那么1个epoch之后,更新100次,step=100
10个epoch,则表示有100 * 10 = 1000 个step来更新参数
相关推荐
natide4 分钟前
表示/嵌入差异-7-间隔/边际对齐(Alignment Margin)
人工智能·深度学习·算法·机器学习·自然语言处理·知识图谱
90后小陈老师5 分钟前
AI使用手册 | 提示词工程
人工智能
fengyehongWorld7 分钟前
Linux logger命令
linux·运维·服务器
njsgcs33 分钟前
用modelscope运行grounding dino
人工智能·pytorch·深度学习·modelscope·groundingdino
toolhow41 分钟前
SelfAttenion自注意力机制
pytorch·python·深度学习
雪人.44 分钟前
JavaWeb经典面试题
java·服务器·前端·java面试题
学习3人组1 小时前
主流深度学习目标检测模型性能对比表
人工智能·深度学习·目标检测
非著名架构师1 小时前
2026年元旦气象营销策略:天气数据如何精准驱动节日销售增长与商业决策
人工智能·风电功率预测·光伏功率预测·高精度天气预报数据·galeweather.cn·高精度气象
发光发热吧1 小时前
2025年终总结:AI浪潮下的一年
人工智能·agent·年终总结
航Hang*1 小时前
第五章:网络系统建设与运维(中级)——生成树协议
运维·服务器·网络·笔记·华为·ensp