python 爬取网站图片的小demo

python 复制代码
# demo.py
# 首先引入各个模块
import os
import requests
from bs4 import BeautifulSoup
from urllib.parse import urljoin

def download_static_resources(url, output_dir="downloads"):
    # 创建输出目录
    if not os.path.exists(output_dir):
        os.makedirs(output_dir)
    
    # 设置请求头,模拟浏览器访问
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36"
    }
    
    try:
        # 发送请求获取网页内容
        response = requests.get(url, headers=headers)
        if response.status_code != 200:
            print("无法访问页面,请检查链接是否有效!")
            return
        
        # 使用 BeautifulSoup 解析 HTML 内容
        soup = BeautifulSoup(response.text, 'html.parser')
        
        # 查找所有图片标签
        img_tags = soup.find_all("img")
        print(f"找到 {len(img_tags)} 张图片")
        
        for img in img_tags:
            # 获取图片的 src 属性
            img_url = img.get("src") or img.get("data-src")  # 有些图片可能使用 data-src
            if not img_url:
                continue
            
            # 将相对路径转换为绝对路径
            img_url = urljoin(url, img_url)
            
            # 下载图片
            try:
                img_response = requests.get(img_url, headers=headers)
                if img_response.status_code == 200:
                    # 提取文件名
                    img_name = os.path.basename(img_url.split("?")[0])  # 去掉查询参数
                    img_path = os.path.join(output_dir, img_name)
                    
                    # 保存图片到本地
                    with open(img_path, "wb") as img_file:
                        img_file.write(img_response.content)
                    print(f"已下载:{img_name}")
                else:
                    print(f"无法下载图片:{img_url}")
            except Exception as e:
                print(f"下载图片时出错:{e}")
    
    except Exception as e:
        print("发生错误:", e)

# 测试代码
if __name__ == "__main__":
    print("欢迎使用网页图片下载器!")
    print("请输入要下载图片的网页地址,按回车确认。")
    target_url = input("网页地址:")
    print("开始下载...")
    download_static_resources(target_url)
    print("\n下载完成!按回车键退出...")
    input()

使用:先安装必要的库,

bash 复制代码
pip install requests beautifulsoup4

运行:

bash 复制代码
python "/demo.py"

我们可以使用 PyInstaller 来将这个 Python 脚本打包成 exe 文件。以下是具体步骤:

bash 复制代码
pip install pyinstaller
bash 复制代码
pyinstaller --onefile --icon=download.ico demo.py


- --onefile : 打包成单个exe文件
- --icon : 添加图标(可选,需要准备一个.ico文件)
相关推荐
玄同7654 小时前
Python Random 模块深度解析:从基础 API 到 AI / 大模型工程化实践
人工智能·笔记·python·学习·算法·语言模型·llm
爱吃生蚝的于勒4 小时前
【Linux】线程概念(一)
java·linux·运维·服务器·开发语言·数据结构·vim
Pluchon5 小时前
硅基计划4.0 算法 简单模拟实现位图&布隆过滤器
java·大数据·开发语言·数据结构·算法·哈希算法
我命由我123455 小时前
Java 泛型 - Java 泛型通配符(上界通配符、下界通配符、无界通配符、PECS 原则)
java·开发语言·后端·java-ee·intellij-idea·idea·intellij idea
AIFarmer5 小时前
在EV3上运行Python语言——环境设置
python·ev3
yunsr5 小时前
python作业3
开发语言·python
历程里程碑5 小时前
普通数组-----除了自身以外数组的乘积
大数据·javascript·python·算法·elasticsearch·搜索引擎·flask
曦月逸霜5 小时前
Python快速入门——学习笔记(持续更新中~)
笔记·python·学习
喵手5 小时前
Python爬虫实战:采集菜谱网站的“分类/列表页”(例如“家常菜”或“烘焙”频道)数据,构建高可用的美食菜谱数据采集流水线(附CSV导出)!
爬虫·python·爬虫实战·零基础python爬虫教学·采集菜谱网站数据·家常菜或烘焙频道·构建高可用食谱数据采集系统
喵手5 小时前
Python爬虫实战:硬核解析 Google Chrome 官方更新日志(正则+文本清洗篇)(附 CSV 导出)!
爬虫·python·爬虫实战·零基础python爬虫教学·csv导出·监控谷歌版本发布历史·获取稳定版更新日志