Python爬取京东商品信息,详细讲解,手把手教学(附源码)

Python 爬虫爬取京东商品信息

下面我将逐一解释每一部分的代码

导入库

python 复制代码
from selenium import webdriver
from selenium.webdriver.edge.service import Service
from selenium.webdriver.edge.options import Options
import time
import random
import csv
from selenium.common.exceptions import TimeoutException
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from pyquery import PyQuery as pq
import os
import requests
from datetime import datetime
import re
  • 作用:导入所有必要的库和模块。

  • 技术栈

  • selenium: 用于自动化浏览器操作。

  • time, random: 用于添加延迟和生成随机数。

  • csv: 用于读写CSV文件。

  • os: 用于文件系统操作。

  • requests: 用于发送HTTP请求(例如下载图片)。

  • datetime: 用于处理日期和时间。

  • re: 用于正则表达式匹配。

配置变量

python 复制代码
KEYWORD = '美妆'
CSV_FILE = 'DepartmentStore.csv'
id = 3538
dratenums = 5
drate = 5
num = 5
  • 作用:初始化全局变量。

  • 技术栈:无特殊技术栈。

设置WebDriver

python 复制代码
# 创建EdgeOptions对象
options = Options()

# 设置Edge WebDriver的路径
webdriver_path = 'G:\\大三下暑期实训基于电商商品推荐平台\\爬虫\\a\\msedgedriver.exe'
service = Service(webdriver_path)

# 初始化Edge WebDriver
driver = webdriver.Edge(service=service, options=options)

# 窗口最大化
driver.maximize_window()

wait = WebDriverWait(driver, 15)
  • 作用:初始化Microsoft Edge WebDriver。

  • 技术栈

  • selenium: 用于自动化浏览器操作。

函数定义

search_goods 函数
python 复制代码
def search_goods(start_page, total_pages):
  • 作用:搜索特定商品并处理翻页逻辑。

  • 技术栈

  • selenium: 用于自动化浏览器操作。

  • pyquery: 用于解析HTML文档。

  • time: 用于添加延迟。

  • random: 用于生成随机数。

page_turning 函数
python 复制代码
def page_turning(page_number):
    # ...
  • 作用:实现翻页操作。

  • 技术栈selenium: 用于自动化浏览器操作。

random_sleep 函数
python 复制代码
def random_sleep(timeS, timeE):
    # ...
  • 作用:随机等待一段时间,防止被网站检测到爬虫行为。

  • 技术栈time, random: 用于添加延迟和生成随机数。

scroll_smoothly 函数
python 复制代码
def scroll_smoothly(duration):
    # ...
  • 作用:平滑滚动页面以模拟真实用户行为。

  • 技术栈selenium: 用于自动化浏览器操作。

get_goods 函数
python 复制代码
def get_goods():
    # ...
  • 作用:获取商品列表中的具体信息。

  • 技术栈

  • selenium: 用于自动化浏览器操作。

  • pyquery: 用于解析HTML文档。

  • os: 用于文件系统操作。

  • requests: 用于发送HTTP请求(例如下载图片)。

  • datetime: 用于处理日期和时间。

  • re: 用于正则表达式匹配。

save_to_csv 函数
python 复制代码
def save_to_csv(result):
    # ...
  • 作用:将获取到的商品信息保存到CSV文件中。

  • 技术栈csv: 用于读写CSV文件。

main 函数
python 复制代码
def main():
    # ...
  • 作用:主函数,用于启动爬虫并处理异常。

  • 技术栈:无特殊技术栈。

主程序入口

python 复制代码
if __name__ == '__main__':
    main()
  • 作用:程序的入口点。

  • 技术栈:无特殊技术栈。

接下来,我将针对每个函数进行详细的代码解释。

search_goods 函数

python 复制代码
def search_goods(start_page, total_pages):
    print('正在搜索: ')
    try:
        driver.get('https://www.taobao.com')
        time.sleep(10)
        driver.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument",
                               {"source": """Object.defineProperty(navigator, 'webdriver', {get: () => undefined})"""})
        input = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, "#q")))
        submit = wait.until(
            EC.element_to_be_clickable((By.CSS_SELECTOR, '#J_TSearchForm > div.search-button > button')))
        input.send_keys(KEYWORD)
        submit.click()
        time.sleep(10)

        if start_page != 1:
            driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
            random_sleep(1, 3)
            pageInput = wait.until(EC.presence_of_element_located(
                (By.XPATH, '//*[@id="root"]/div/div[3]/div[1]/div[1]/div[2]/div[4]/div/div/span[3]/input')))
            pageInput.send_keys(start_page)
            admit = wait.until(EC.element_to_be_clickable(
                (By.XPATH, '//*[@id="root"]/div/div[3]/div[1]/div[1]/div[2]/div[4]/div/div/button[3]')))
            admit.click()

        get_goods()

        for i in range(start_page + 1, start_page + total_pages):
            page_turning(i)
    except TimeoutException:
        print("search_goods: error")
        return search_goods(start_page, total_pages)
  • 作用:搜索特定商品并处理翻页逻辑。

  • 细节

  • 打开淘宝网站并等待页面加载。

  • 使用CDP命令禁用WebDriver标志,以防被网站检测。

  • 在搜索框中输入关键词并提交。

  • 如果不是第一页,则跳转到指定的起始页。

  • 调用get_goods函数获取商品信息。

  • 循环翻页并获取商品信息。

page_turning 函数

python 复制代码
def page_turning(page_number):
    print('正在翻页: ', page_number)
    try:
        submit = wait.until(
            EC.element_to_be_clickable((By.XPATH, '//*[@id="sortBarWrap"]/div[1]/div[2]/div[2]/div[8]/div/button[2]')))
        submit.click()
        wait.until(EC.text_to_be_present_in_element(
            (By.XPATH, '//*[@id="sortBarWrap"]/div[1]/div[2]/div[2]/div[8]/div/span/em'), str(page_number)))
        get_goods()
    except TimeoutException:
        page_turning(page_number)
  • 作用:实现翻页操作。

  • 细节

  • 点击下一页按钮。

  • 等待新的页面加载完成。

  • 调用get_goods函数获取商品信息。

random_sleep 函数

python 复制代码
def random_sleep(timeS, timeE):
    random_sleep_time = random.uniform(timeS, timeE)
    time.sleep(random_sleep_time)
  • 作用:随机等待一段时间,防止被网站检测到爬虫行为。

  • 细节

  • 生成一个在timeStimeE之间的随机数作为睡眠时间。

  • 使用time.sleep暂停指定的时间。

scroll_smoothly 函数

python 复制代码
def scroll_smoothly(duration):
    total_height = driver.execute_script("return document.body.scrollHeight")
    viewport_height = driver.execute_script("return window.innerHeight")
    steps = 30  # 分成30步
    step_duration = duration / steps  # 每步的时间
    step_height = (total_height - viewport_height) / steps  # 每步的高度

    for i in range(steps):
        driver.execute_script(f"window.scrollBy(0, {step_height});")
        time.sleep(step_duration)
  • 作用:平滑滚动页面以模拟真实用户行为。

  • 细节

  • 计算页面的总高度和视窗的高度。

  • 计算每次滚动的距离和时间。

  • 使用JavaScript执行平滑滚动效果。

get_goods 函数

python 复制代码
def get_goods():
    global id, drate, dratenums, num  # 声明使用全局变量 id
    random_sleep(2, 4)
    # 滑动浏览器滚轮,向下滑动
    scroll_smoothly(4)
    random_sleep(4, 4)  # 等待页面加载
    html = driver.page_source
    doc = pq(html)
    items = doc(
        'div.PageContent--contentWrap--mep7AEm > div.LeftLay--leftWrap--xBQipVc > div.LeftLay--leftContent--AMmPNfB > div.Content--content--sgSCZ12 > div > div').items()

    for item in items:
        title = item.find('.Title--title--jCOPvpf span').text()
        price_int = item.find('.Price--priceInt--ZlsSi_M').text()
        price_float = item.find('.Price--priceFloat--h2RR0RK').text()
        if price_int and price_float:
            price = float(f"{price_int}{price_float}")
        else:
            price = 0.0
        deal = item.find('.Price--realSales--FhTZc7U').text()
        location = item.find('.Price--procity--_7Vt3mX').text()
        shop = item.find('.ShopInfo--TextAndPic--yH0AZfx a').text()
        postText = item.find('.SalesPoint--subIconWrapper--s6vanNY span').text()
        result = 1 if "包邮" in postText else 0
        image = item.find('.MainPic--mainPicWrapper--iv9Yv90 img').attr('src')
        # 图片的URL
        image_url = image
        pattern = r"https:\/\/.*?\.jpg"

        match = re.search(pattern, image_url)
        if match:
            print("Extracted URL:", match.group(0))
        else:
            print("No match found")
        image_url = match.group(0)

        # 保存图片的文件夹
        save_folder = "shopping_cover"

        # 确保保存路径存在
        if not os.path.exists(save_folder):
            os.makedirs(save_folder)

        # 将图片文件名固定为 '1.jpg'
        image_name = str(id) + ".jpg"

        # 完整的保存路径
        save_path = os.path.join(save_folder, image_name)

        # 获取当前日期
        current_date = datetime.now()

        # 格式化日期为 'yyyy-mm-dd'
        formatted_date = current_date.strftime('%Y-%m-%d')

        imdblink = item.find('.Card--doubleCardWrapper--L2XFE73 a').attr('href')

        # 下载图片并保存
        try:
            with requests.get(image_url, stream=True) as response:
                response.raise_for_status()
                with open(save_path, 'wb') as f:
                    for chunk in response.iter_content(chunk_size=8192):
                        if chunk:  # filter out keep-alive new chunks
                            f.write(chunk)
            print(f"图片已保存到: {save_path}")
            product = {
                'id': id,
                'name': title,
                'director': shop,
                'country': location,
                'years': formatted_date,
                'leader': price,
                'd_rate_nums': dratenums,
                'd_rate': drate,
                'intro': deal + str(result),
                'num': num,
                'orign_image_link': image,
                'image_link': save_folder + '/' + image_name,
                'imdb_link': imdblink
            }
            save_to_csv(product)
            id += 1
        except requests.RequestException as e:
            print(f"下载图片失败:{e}")

        # 直接滑动浏览器滚轮到最顶部
        driver.execute_script("window.scrollTo(0, 0);")
  • 作用:获取商品列表中的具体信息。

  • 细节

  • 使用pyquery解析HTML源码。

  • 提取每个商品的信息。

  • 下载并保存商品图片。

  • 调用save_to_csv保存数据。

save_to_csv 函数

python 复制代码
def save_to_csv(result):
    try:
        with open(CSV_FILE, mode='a', newline='', encoding='utf-8') as file:
            writer = csv.writer(file)
            writer.writerow([result['id'], result['name'], result['director'], result['country'], result['years'], result['leader'], result['d_rate_nums'], result['d_rate'], result['intro'], result['num'], result['orign_image_link'], result['image_link'], result['imdb_link']])
        print('存储到CSV成功: ', result)
    except Exception as e:
        print('存储到CSV出错: ', result, e)
  • 作用:将获取到的商品信息保存到CSV文件中。

  • 细节

  • 将商品信息追加到CSV文件中。

  • 输出保存成功的消息或错误消息。

main 函数

python 复制代码
def main():
    try:
        # 检查文件是否存在,如果不存在则创建并写入标题行
        if not os.path.exists(CSV_FILE):
            with open(CSV_FILE, mode='w', newline='', encoding='utf-8') as file:
                writer = csv.writer(file)
                writer.writerow(['id', 'name', 'director', 'country', 'years', 'leader', 'd_rate_nums', 'd_rate', 'intro', 'num', 'orign_image_link', 'image_link', 'imdb_link'])

        pageStart = int(input("输入您想开始爬取的页面数: "))
        pageAll = int(input("输入您想爬取的总页面数: "))
        search_goods(pageStart, pageAll)
    except Exception as e:
        print('main函数报错: ', e)
  • 作用:主函数,用于启动爬虫并处理异常。

  • 细节

  • 检查CSV文件是否存在,若不存在则创建并写入表头。

  • 获取用户输入的起始页和总页数。

  • 调用search_goods函数开始爬取。

主程序入口

python 复制代码
if __name__ == '__main__':
    main()
  • 作用:程序的入口点。

  • 细节 :当直接运行此文件时,执行main函数。

以下是完整代码

python 复制代码
from selenium import webdriver
from selenium.webdriver.edge.service import Service
from selenium.webdriver.edge.options import Options
import time
import random
import csv
from selenium.common.exceptions import TimeoutException
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from pyquery import PyQuery as pq
import os
import requests
from datetime import datetime
import re

KEYWORD = '美妆'
CSV_FILE = 'DepartmentStore.csv'
id = 3538
dratenums = 5
drate = 5
num = 5

# 创建EdgeOptions对象
options = Options()

# 设置Edge WebDriver的路径
webdriver_path = 'G:\\大三下暑期实训基于电商商品推荐平台\\爬虫\\a\\msedgedriver.exe'
service = Service(webdriver_path)

# 初始化Edge WebDriver
driver = webdriver.Edge(service=service, options=options)

# 窗口最大化
driver.maximize_window()

wait = WebDriverWait(driver, 15)

def search_goods(start_page, total_pages):
    print('正在搜索: ')
    try:
        driver.get('https://www.taobao.com')
        time.sleep(10)
        driver.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument",
                               {"source": """Object.defineProperty(navigator, 'webdriver', {get: () => undefined})"""})
        input = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, "#q")))
        submit = wait.until(
            EC.element_to_be_clickable((By.CSS_SELECTOR, '#J_TSearchForm > div.search-button > button')))
        input.send_keys(KEYWORD)
        submit.click()
        time.sleep(10)

        if start_page != 1:
            driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
            random_sleep(1, 3)
            pageInput = wait.until(EC.presence_of_element_located(
                (By.XPATH, '//*[@id="root"]/div/div[3]/div[1]/div[1]/div[2]/div[4]/div/div/span[3]/input')))
            pageInput.send_keys(start_page)
            admit = wait.until(EC.element_to_be_clickable(
                (By.XPATH, '//*[@id="root"]/div/div[3]/div[1]/div[1]/div[2]/div[4]/div/div/button[3]')))
            admit.click()

        get_goods()

        for i in range(start_page + 1, start_page + total_pages):
            page_turning(i)
    except TimeoutException:
        print("search_goods: error")
        return search_goods(start_page, total_pages)

def page_turning(page_number):
    print('正在翻页: ', page_number)
    try:
        submit = wait.until(
            EC.element_to_be_clickable((By.XPATH, '//*[@id="sortBarWrap"]/div[1]/div[2]/div[2]/div[8]/div/button[2]')))
        submit.click()
        wait.until(EC.text_to_be_present_in_element(
            (By.XPATH, '//*[@id="sortBarWrap"]/div[1]/div[2]/div[2]/div[8]/div/span/em'), str(page_number)))
        get_goods()
    except TimeoutException:
        page_turning(page_number)

def random_sleep(timeS, timeE):
    random_sleep_time = random.uniform(timeS, timeE)
    time.sleep(random_sleep_time)

def scroll_smoothly(duration):
    total_height = driver.execute_script("return document.body.scrollHeight")
    viewport_height = driver.execute_script("return window.innerHeight")
    steps = 30  # 分成30步
    step_duration = duration / steps  # 每步的时间
    step_height = (total_height - viewport_height) / steps  # 每步的高度

    for i in range(steps):
        driver.execute_script(f"window.scrollBy(0, {step_height});")
        time.sleep(step_duration)

def get_goods():
    global id, drate, dratenums, num  # 声明使用全局变量 id
    random_sleep(2, 4)
    # 滑动浏览器滚轮,向下滑动
    scroll_smoothly(4)
    random_sleep(4, 4)  # 等待页面加载
    html = driver.page_source
    doc = pq(html)
    items = doc(
        'div.PageContent--contentWrap--mep7AEm > div.LeftLay--leftWrap--xBQipVc > div.LeftLay--leftContent--AMmPNfB > div.Content--content--sgSCZ12 > div > div').items()

    for item in items:
        title = item.find('.Title--title--jCOPvpf span').text()
        price_int = item.find('.Price--priceInt--ZlsSi_M').text()
        price_float = item.find('.Price--priceFloat--h2RR0RK').text()
        if price_int and price_float:
            price = float(f"{price_int}{price_float}")
        else:
            price = 0.0
        deal = item.find('.Price--realSales--FhTZc7U').text()
        location = item.find('.Price--procity--_7Vt3mX').text()
        shop = item.find('.ShopInfo--TextAndPic--yH0AZfx a').text()
        postText = item.find('.SalesPoint--subIconWrapper--s6vanNY span').text()
        result = 1 if "包邮" in postText else 0
        image = item.find('.MainPic--mainPicWrapper--iv9Yv90 img').attr('src')
        # 图片的URL
        image_url = image
        pattern = r"https:\/\/.*?\.jpg"

        match = re.search(pattern, image_url)
        if match:
            print("Extracted URL:", match.group(0))
        else:
            print("No match found")
        image_url = match.group(0)

        # 保存图片的文件夹
        save_folder = "shopping_cover"

        # 确保保存路径存在
        if not os.path.exists(save_folder):
            os.makedirs(save_folder)

        # 将图片文件名固定为 '1.jpg'
        image_name = str(id) + ".jpg"

        # 完整的保存路径
        save_path = os.path.join(save_folder, image_name)

        # 获取当前日期
        current_date = datetime.now()

        # 格式化日期为 'yyyy-mm-dd'
        formatted_date = current_date.strftime('%Y-%m-%d')

        imdblink = item.find('.Card--doubleCardWrapper--L2XFE73 a').attr('href')

        # 下载图片并保存
        try:
            with requests.get(image_url, stream=True) as response:
                response.raise_for_status()
                with open(save_path, 'wb') as f:
                    for chunk in response.iter_content(chunk_size=8192):
                        if chunk:  # filter out keep-alive new chunks
                            f.write(chunk)
            print(f"图片已保存到: {save_path}")
            product = {
                'id': id,
                'name': title,
                'director': shop,
                'country': location,
                'years': formatted_date,
                'leader': price,
                'd_rate_nums': dratenums,
                'd_rate': drate,
                'intro': deal + str(result),
                'num': num,
                'orign_image_link': image,
                'image_link': save_folder + '/' + image_name,
                'imdb_link': imdblink
            }
            save_to_csv(product)
            id += 1
        except requests.RequestException as e:
            print(f"下载图片失败:{e}")

        # 直接滑动浏览器滚轮到最顶部
        driver.execute_script("window.scrollTo(0, 0);")

def save_to_csv(result):
    try:
        with open(CSV_FILE, mode='a', newline='', encoding='utf-8') as file:
            writer = csv.writer(file)
            writer.writerow([result['id'], result['name'], result['director'], result['country'], result['years'], result['leader'], result['d_rate_nums'], result['d_rate'], result['intro'], result['num'], result['orign_image_link'], result['image_link'], result['imdb_link']])
        print('存储到CSV成功: ', result)
    except Exception as e:
        print('存储到CSV出错: ', result, e)

def main():
    try:
        # 检查文件是否存在,如果不存在则创建并写入标题行
        if not os.path.exists(CSV_FILE):
            with open(CSV_FILE, mode='w', newline='', encoding='utf-8') as file:
                writer = csv.writer(file)
                writer.writerow(['id', 'name', 'director', 'country', 'years', 'leader', 'd_rate_nums', 'd_rate', 'intro', 'num', 'orign_image_link', 'image_link', 'imdb_link'])

        pageStart = int(input("输入您想开始爬取的页面数: "))
        pageAll = int(input("输入您想爬取的总页面数: "))
        search_goods(pageStart, pageAll)
    except Exception as e:
        print('main函数报错: ', e)

if __name__ == '__main__':
    main()

这份完整版的代码已经上传至CSDN官方,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费获取【保证100%免费】。

原创: 慕仙少白

相关推荐
Biomamba生信基地5 分钟前
R语言基础| 回归分析
开发语言·回归·r语言
姓学名生9 分钟前
李沐vscode配置+github管理+FFmpeg视频搬运+百度API添加翻译字幕
vscode·python·深度学习·ffmpeg·github·视频
猿类崛起@16 分钟前
百度千帆大模型实战:AI大模型开发的调用指南
人工智能·学习·百度·大模型·产品经理·大模型学习·大模型教程
黑客-雨19 分钟前
从零开始:如何用Python训练一个AI模型(超详细教程)非常详细收藏我这一篇就够了!
开发语言·人工智能·python·大模型·ai产品经理·大模型学习·大模型入门
Pandaconda24 分钟前
【Golang 面试题】每日 3 题(三十九)
开发语言·经验分享·笔记·后端·面试·golang·go
加油,旭杏28 分钟前
【go语言】变量和常量
服务器·开发语言·golang
行路见知28 分钟前
3.3 Go 返回值详解
开发语言·golang
xcLeigh32 分钟前
WPF实战案例 | C# WPF实现大学选课系统
开发语言·c#·wpf
孤独且没人爱的纸鹤33 分钟前
【机器学习】深入无监督学习分裂型层次聚类的原理、算法结构与数学基础全方位解读,深度揭示其如何在数据空间中构建层次化聚类结构
人工智能·python·深度学习·机器学习·支持向量机·ai·聚类
viperrrrrrrrrr733 分钟前
大数据学习(40)- Flink执行流
大数据·学习·flink