python爬虫初体验(四)—— 百度文库PPT的爬取

文章目录

      • [1. 安装包](#1. 安装包)
      • [2. 相关代码](#2. 相关代码)
      • [3. 说明](#3. 说明)
      • [4. 注意事项](#4. 注意事项)
      • [5. 扩展功能](#5. 扩展功能)
        • [5.1 多页面下载](#5.1 多页面下载)
        • [5.2 输入地址下载](#5.2 输入地址下载)

在Python 2中编写一个爬虫来大量下载图片,可以使用requests库来发送HTTP请求,并使用BeautifulSoup来解析HTML页面。此外,可以使用urllib2库来下载图片。lxml 是一个 Python 库,用于处理 XML 和 HTML 文档。它提供了高效的 XML/HTML 解析和生成工具,是处理 Web 页面内容的常用工具之一。

1. 安装包

bash 复制代码
pip install requests
pip install beautifulsoup4
pip install lxml
pip install urllib2

2. 相关代码

下面是一个相关代码,演示如何从一个网页中下载图片:

python 复制代码
# -*- coding: utf-8 -*-
import requests
import os
import urllib2
from lxml import etree

# 创建目录函数
def create_file(file_path):
    # 如果目录不存在,则创建目录
    if not os.path.exists(file_path):
        os.makedirs(file_path)

# 下载图片函数
def download_image(url, path):
    try:
        # 使用 urllib2 打开 URL 并获取响应
        response = urllib2.urlopen(url)
        # 以二进制写模式打开文件,并写入响应内容
        with open(path, 'wb') as f:
            f.write(response.read())
    except Exception as e:
        # 如果发生异常,打印错误信息
        print("Failed to download image: {}".format(url))
        print("Error: ", str(e))

# 从网页中抓取图片的函数
def fetch_images_from_page(url):
    # 使用 requests 发送 GET 请求获取网页内容
    resp = requests.get(url)
    
    # 解析网页文本
    text = resp.text
    
    # 使用 lxml 解析 HTML 文档
    html = etree.HTML(text)
    
    # 通过 XPath 获取包含图片的元素列表
    img_list = html.xpath('//div[@class="mod flow-ppt-mod"]/div/div/img')
    
    # 初始化计数器
    cnt = 1
    
    # 目标文件路径
    file_path = './ppt/'
    # 创建目标文件夹
    create_file(file_path)
    
    # 遍历图片元素列表
    for i in img_list:
        try:
            # 尝试获取图片的 src 属性
            img_url = i.xpath('./@src')[0]
        except IndexError:
            # 如果 src 属性不存在,则尝试获取 data-src 属性
            img_url = i.xpath('./@data-src')[0]
        
        # 构建图片文件名
        file_name = '%s/page_%d.jpg' % (file_path, cnt)
        
        # 下载图片
        download_image(img_url, file_name)
        # 输出下载成功的提示信息
        print("Downloaded: {}".format(file_name))
        
        # 增加计数器
        cnt += 1

# 主函数
def main():
    # 目标网页 URL
    url = 'https://wenku.baidu.com/view/c784625f1a2e453610661ed9ad51f01dc3815771.html'
    
    # 调用抓取图片的函数
    fetch_images_from_page(url)

# 如果当前模块是主程序,则执行 main 函数
if __name__ == '__main__':
    main()

3. 说明

  • 导入模块:导入必要的模块 requests、os、urllib2 和 lxml.etree。
  • 创建目录函数:create_file 用于创建指定的目录。
  • 下载图片函数:download_image 用于下载图片并保存到本地。
  • 从网页中抓取图片的函数:fetch_images_from_page 用于从指定网页抓取图片并下载到本地。
  • 主函数:main 用于定义入口 URL 并调用抓取图片的函数。

4. 注意事项

  • 图片URL:确保图片的URL是绝对路径。如果是相对路径,需要拼接成绝对路径。
  • 错误处理:添加了异常处理逻辑,以处理下载过程中可能出现的错误。
  • 文件路径:确保保存图片的路径正确,并且有写入权限。
  • XPath 表达式:使用 XPath 表达式从网页中提取图片元素。

5. 扩展功能

5.1 多页面下载

如果你需要从多个页面下载图片,可以将页面的URL放入一个列表中,并循环处理每个页面。

python 复制代码
def main():
  # 目标URL列表
  urls = ['https://example.com/images1', 'https://example.com/images2']
    
  # 抓取并下载图片
  for url in urls:
    fetch_images_from_page(url)

if __name__ == '__main__':
  main()
5.2 输入地址下载

如果你需要输入想要的地址,然后下载相对应的图片,需要使用raw_inputraw_input是一个内置函数,用于从标准输入(通常是键盘)读取一行文本,并返回一个字符串。这个函数不会执行任何类型的转换,返回的内容就是用户输入的原始字符串。

python 复制代码
def main():
  url = raw_input('输入百度文库地址:')

  fetch_images_from_page(url)

if __name__ == '__main__':
  main()
相关推荐
Kai HVZ3 分钟前
python爬虫----爬取视频实战
爬虫·python·音视频
古希腊掌管学习的神5 分钟前
[LeetCode-Python版]相向双指针——611. 有效三角形的个数
开发语言·python·leetcode
m0_748244838 分钟前
StarRocks 排查单副本表
大数据·数据库·python
B站计算机毕业设计超人14 分钟前
计算机毕业设计PySpark+Hadoop中国城市交通分析与预测 Python交通预测 Python交通可视化 客流量预测 交通大数据 机器学习 深度学习
大数据·人工智能·爬虫·python·机器学习·课程设计·数据可视化
路人甲ing..18 分钟前
jupyter切换内核方法配置问题总结
chrome·python·jupyter
游客52029 分钟前
opencv中的常用的100个API
图像处理·人工智能·python·opencv·计算机视觉
每天都要学信号1 小时前
Python(第一天)
开发语言·python
凡人的AI工具箱1 小时前
每天40分玩转Django:Django国际化
数据库·人工智能·后端·python·django·sqlite
咸鱼桨1 小时前
《庐山派从入门到...》PWM板载蜂鸣器
人工智能·windows·python·k230·庐山派
yusaisai大鱼2 小时前
tensorflow_probability与tensorflow版本依赖关系
人工智能·python·tensorflow