利用Git和wget批量下载网页数据

一、Git的下载(参考文章

二. wget下载(网上很多链接)

三、git和wget结合使用

1.先建立一个文本,将代码写入文本(代码如下),将txt后缀改为sh(download_ssebop.sh)。将wget和.sh文件放在一个文件中(F:\PhD\Mult_year_ET\Ssebop)。然后在Ssebop中右击,点击open Git bash here.然后输入:./download_ssebop.sh。点击回车即可。我需要下载的数据网页链接为:https://edcintl.cr.usgs.gov/downloads/sciweb1/shared/fews/web/global/monthly/etav5/downloads/

bash 复制代码
#!/bin/bash

# 设置基本参数
base_url="https://edcintl.cr.usgs.gov/downloads/sciweb1/shared/fews/web/global/monthly/etav5/downloads/"
start_year=2003
end_year=2021
download_dir="./down"

# 创建下载目录(如果不存在)
mkdir -p "$download_dir"

# 遍历每一年和月,构建URL并调用wget进行下载到指定目录
for year in $(seq $start_year $end_year); do
    for month in $(seq -w 1 12); do # 使用-w选项确保月份是两位数
        filename="m${year}${month}.zip"
        url="${base_url}${filename}"
        echo "Downloading ${filename} from ${url}"

        # 使用wget下载文件到指定目录
        if F:/PhD/Mult_year_ET/Ssebop/wget --quiet --show-progress --progress=bar:force -P "$download_dir" "$url"; then
            echo "Successfully downloaded ${filename} into ${download_dir}."
        else
            echo "Failed to download ${filename}."
        fi
    done
done

以上就可以对网页数据进行批量下载!

长路漫漫...

唯有坚持...

相关推荐
Lx3528 分钟前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
Elasticsearch3 小时前
平衡尺度:利用权重使倒数排序融合 (RRF) 更加智能
elasticsearch
武子康4 小时前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark
阿里云大数据AI技术20 小时前
大数据公有云市场第一,阿里云占比47%!
大数据
权咚20 小时前
阿权的开发经验小集
git·ios·xcode
Lx3521 天前
Hadoop容错机制深度解析:保障作业稳定运行
大数据·hadoop
muyun28001 天前
Docker 下部署 Elasticsearch 8 并集成 Kibana 和 IK 分词器
elasticsearch·docker·容器
T06205141 天前
工具变量-5G试点城市DID数据(2014-2025年
大数据
向往鹰的翱翔1 天前
BKY莱德因:5大黑科技逆转时光
大数据·人工智能·科技·生活·健康医疗
鸿乃江边鸟1 天前
向量化和列式存储
大数据·sql·向量化