【深度学习】Grand Challenge、zenodo、huggingface数据集下载

文章目录

  • [01 Grand Challenge 上数据集的下载](#01 Grand Challenge 上数据集的下载)
  • [02 zenodo上数据集的下载](#02 zenodo上数据集的下载)
  • [03 hugging face 上数据集的下载](#03 hugging face 上数据集的下载)
    • (1)直接在网页上下载
    • [(2)通过 huggingface_hub 库下载](#(2)通过 huggingface_hub 库下载)
    • [(3)使用 Git LFS](#(3)使用 Git LFS)
    • [(4) hugging face 上数据集的下载 常见问题与解决方案](#(4) hugging face 上数据集的下载 常见问题与解决方案)
        • [问题 :网络连接错误 (ConnectionError / ReadTimeout)](#问题 :网络连接错误 (ConnectionError / ReadTimeout))

01 Grand Challenge 上数据集的下载

之前写过一个Grand Challenge 上数据集的下载的帖子,不再赘述:https://blog.csdn.net/verse_armour/article/details/153273551?spm=1001.2014.3001.5501

02 zenodo上数据集的下载

(1)直接在网页上下载

操作比较简单,但是一般来说比较慢,网络不好的时候容易下载中断,又要重新下载。

(2)使用zenodo_get

github地址:https://github.com/dvolgyes/zenodo_get

  • 安装:直接在虚拟环境中pip安装即可:pip install zenodo-get -i https://pypi.tuna.tsinghua.edu.cn/simple
  • 使用:zenodo_get RECORD_ID_OR_DOI
  • note:这里的RECORD_ID_OR_DOI是zenodo网页url末尾的数字,比如这个数据集就是7260705

    但是我用下来这个工具在下载的时候也容易中断,十几个G的数据集只能下载几百兆,下不完全。

(3)使用wget

直接wget -c https://zenodo.org/api/records/8003760/files/Task2_val.zip/content -O Task2_val.zip

  • -c 参数表示 断点续传(Continue),如果连接断开,重新运行该命令会从断开的地方继续,而不会重新开始。
  • -O Task2.zip 表示将下载的文件重命名为 Task2.zip。

这个方案是我下来最流畅的一个,没有遇到问题。

03 hugging face 上数据集的下载

(1)直接在网页上下载

需要一个一个下载,一般不用。

(2)通过 huggingface_hub 库下载

适用场景: 下载原始文件、大批量文件备份。

安装: pip install huggingface_hub

python 复制代码
from huggingface_hub import snapshot_download
# 下载整个数据集仓库到本地
snapshot_download(repo_id="shibing624/medical",
                  repo_type="dataset",
                  local_dir="./medical_data",
                  resume_download=True) # 支持断点续传

(3)使用 Git LFS

像克隆 GitHub 仓库一样克隆数据集。注意必须安装 Git LFS,否则大文件只能下到指针文件。

适用场景: 习惯用 Git 管理、需要查看历史版本的用户。

shell 复制代码
git lfs install
git clone https://huggingface.co/datasets/username/dataset-name

Hugging Face (HF) 是目前最主流的 NLP 和 AI 社区,下载数据集主要有三种方式:Python 代码库(官方推荐)命令行工具Git

以下是详细的下载指南,以及国内用户最常遇到的"网络连接"等问题的解决方案。


(4) hugging face 上数据集的下载 常见问题与解决方案

下载 Hugging Face 数据集时,90% 的问题都集中在网络连接上。

问题 :网络连接错误 (ConnectionError / ReadTimeout)

现象: 报错 ConnectTimeoutErrorHTTPSConnectionPool(host='huggingface.co', port=443): Max retries exceeded
原因: 国内网络环境连接 Hugging Face 官方服务器不稳定或被阻断。

✅ 解决方案 A:使用 HF-Mirror 镜像站(最推荐)

这是一个国内公益镜像站,完全同步官方资源。

  1. 设置环境变量 (在终端运行或写入 .bashrc):

    bash 复制代码
    export HF_ENDPOINT=https://hf-mirror.com
  2. 设置后,正常的 Python 脚本(load_dataset 等)无需修改代码,会自动走镜像下载。

相关推荐
徐健峰16 小时前
GPT-image-2 热门玩法实战(三):AI 手办/Action Figure — 把自己变成盒装玩具
人工智能
扑兔AI16 小时前
B2B销售线索挖掘效率提升的技术实践:基于工商公开数据的客源筛选与竞品分析架构
大数据·人工智能·架构
亚鲁鲁16 小时前
00-目录
人工智能
罗西的思考16 小时前
【GUI-Agent】阿里通义MAI-UI 代码阅读(2)--- 实现
人工智能·算法·机器学习
墨染天姬16 小时前
【AI】cursor提示词小技巧
前端·数据库·人工智能
Raink老师16 小时前
【AI面试临阵磨枪-40】文本切块(Chunking)策略:固定长度、语义切块、递归切块、重叠设计
人工智能·ai 面试
techdashen16 小时前
p99 延迟从 9.5 毫秒降到 18 微秒:Cloudflare 机器学习基础设施重构全记录
人工智能·机器学习·重构
AI服务老曹17 小时前
架构师视角:如何构建支持GB28181/RTSP的异构AI视频平台?从Docker部署到源码交付的深度实践
人工智能·docker·音视频
IT_陈寒17 小时前
Vite热更新失效?你可能漏了这个小细节
前端·人工智能·后端
机器之心18 小时前
今天起,Claude正式接入Office全家桶,跨应用还能共享记忆
人工智能·openai