深度学习的笔记

1. 从huggingface上仅下载pytorch模型权重和配置文件到服务器

python 复制代码
import os
import shutil
from huggingface_hub import snapshot_download

# 直接指定模型和下载路径
model_name = 'openai/clip-vit-base-patch32'
download_path = '/home/xxx/.cache/huggingface/hub/models--anas-awadalla--mpt-7b'

# 确保下载路径存在
os.makedirs(download_path, exist_ok=True)
print('*'*10, f'Start downloading {model_name}', '*'*10)

# 下载模型
snapshot_download(repo_id=model_name,
                  cache_dir=download_path,
                  local_dir=download_path,
                  local_dir_use_symlinks=False,
                  ignore_patterns=["*.h5","*safetensors","*msgpack"],
                  force_download=True,
                  resume_download=False,
                  etag_timeout=60)


print('*'*10, 'Download finish', '*'*10)

# 清理下载的模型目录
for item in os.listdir(download_path):
    if os.path.isdir(os.path.join(download_path, item)) and item.startswith('models'):
        shutil.rmtree(os.path.join(download_path, item))

2. 从huggingface的镜像站上下载数据集:

python 复制代码
import os
from datasets import load_dataset

os.environ["HF_DATASETS_BASE_URL"] = "https://hf-mirror.com/"

# 数据集名称
dataset_name = 'lukaemon/mmlu'
download_path = '/data/share/xxx/'

# 子集列表
subsets = ['subset1', 'subset2', 'subset3']  # 替换为实际的子集名称

# 确保下载路径存在
os.makedirs(download_path, exist_ok=True)
print('*' * 10, f'Start downloading subsets of {dataset_name}', '*' * 10)

# 下载数据集的每个子集
for subset in subsets:
    print(f'Downloading subset: {subset}')
    dataset = load_dataset(dataset_name, subset, cache_dir=download_path,trust_remote_code=True)["test"]
    print(f'Finished downloading subset: {subset}')

print('*' * 10, 'Download finish', '*' * 10)

3. 关于对数概率(logits)和softmax函数:

对数概率(Logits):指的是在应用 softmax 函数之前的层的输出。它们是模型输出的原始未归一化的分数,可以理解为模型对每个类别的信心度量。这些分数可以是任意实数值,不限于0到1之间。

Softmax 函数是一种将对数概率(或任意实数值向量)转换成概率分布的方法。具体来说,它会对每个输出应用指数函数,然后对这些指数值进行归一化,使它们的和为1,从而转换为概率分布。

总结一下,对数概率(logits)是 softmax 函数的输入,而 softmax 函数的输出是一个概率分布,即模型对各个类别的预测概率。这两者经常一起使用,尤其是在处理分类问题时。

4. 你可以通过指定--name或-n参数来创建并命名一个新的Conda环境:

bash 复制代码
conda env create -f environment.yml #改成如下:

conda env create -f environment.yml -n openflamingov1

5. epoch , batch ,step的关系

bash 复制代码
step = batch number * epoch number,解释如下:
step表示参数更新的次数

假设有1000个数据,我想遍历10个epoch,我假设 batch_size = 10,也就是一次处理10张图片,
那么1个epoch 会有 1000/10 = 100个batch,也就是batch number = 100

运行完一个batch_size的数据之后才会 计算loss ,进行反向传播,更新参数,step+1,那么1个epoch之后,更新100次,step=100
10个epoch,则表示有100 * 10 = 1000 个step来更新参数
相关推荐
Xの哲學5 分钟前
Linux VxLAN深度解析: 从数据平面到内核实现的全面剖析
linux·服务器·算法·架构·边缘计算
DisonTangor10 分钟前
【小米拥抱开源】小米MiMo团队开源309B专家混合模型——MiMo-V2-Flash
人工智能·开源·aigc
hxxjxw24 分钟前
Pytorch分布式训练/多卡训练(六) —— Expert Parallelism (MoE的特殊策略)
人工智能·pytorch·python
Robot侠32 分钟前
视觉语言导航从入门到精通(一)
网络·人工智能·microsoft·llm·vln
掘金一周33 分钟前
【用户行为监控】别只做工具人了!手把手带你写一个前端埋点统计 SDK | 掘金一周 12.18
前端·人工智能·后端
神州问学34 分钟前
世界模型:AI的下一个里程碑
人工智能
zhaodiandiandian36 分钟前
AI深耕产业腹地 新质生产力的实践路径与价值彰显
人工智能
古德new39 分钟前
openFuyao AI大数据场景加速技术实践指南
大数据·人工智能
youcans_1 小时前
【医学影像 AI】FunBench:评估多模态大语言模型的眼底影像解读能力
论文阅读·人工智能·大语言模型·多模态·眼底图像
dagouaofei1 小时前
PPT AI生成实测报告:哪些工具值得长期使用?
人工智能·python·powerpoint