爬虫案例实战

文章目录


一、窗口切换实战

案例实战:使用selenium实现打开百度和腾讯两个窗口并切换

知识点:用到selenium中execute_script()执行js代码及switch_to.window()方法

全部代码如下:

python 复制代码
import time
import warnings
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.chrome.options import Options


warnings.filterwarnings('ignore')
# 创建ChromeOptions对象
chrome_options = Options()
# 添加启动参数,禁用浏览器自动化控制提示
chrome_options.add_experimental_option('excludeSwitches', ['enable-automation'])

driver = webdriver.Chrome(chrome_options)
driver.execute_cdp_cmd(
    "Page.addScriptToEvaluateOnNewDocument",
    {
        "source": " Object.defineProperty(navigator, 'webdriver', { get: () => undefined }) "
    }
)
driver.maximize_window()
# 请求第1个网址:driver.get()
driver.get('https://www.baidu.com')
time.sleep(3)

# 请求第2个网址:JS代码
js_code = 'window.open("https://www.qq.com")'
driver.execute_script(js_code)

# 获取窗口
window_list = driver.window_handles

# 切换窗口到百度
driver.switch_to.window(window_list[0])
driver.find_element(by=By.ID, value='kw').send_keys('风景')
driver.find_element(by=By.ID, value='su').click()
time.sleep(2)

# 切换窗口到QQ
driver.switch_to.window(window_list[1])
driver.find_element(by=By.XPATH, value='//*[@id="qqhome-top-header"]/div/div/div[2]/div/input').send_keys('Python')
driver.find_element(by=By.XPATH, value='//*[@id="qqhome-top-header"]/div/div/div[2]/div/button/span').click()
input()

二、京东数据抓取

案例实战:使用selenium实现打开京东搜索商品并滑动页面获取数据

知识点:用到selenium中execute_script()执行js代码

全部代码如下:

python 复制代码
import time
import warnings
from lxml import etree
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.chrome.options import Options

keyword = '手机'
warnings.filterwarnings('ignore')
# 创建ChromeOptions对象
chrome_options = Options()
# 添加启动参数,禁用浏览器自动化控制提示
chrome_options.add_experimental_option('excludeSwitches', ['enable-automation'])

driver = webdriver.Chrome(chrome_options)
driver.execute_cdp_cmd(
    "Page.addScriptToEvaluateOnNewDocument",
    {
        "source": " Object.defineProperty(navigator, 'webdriver', { get: () => undefined }) "
    }
)
driver.maximize_window()


def requests_url():
    # 访问京东首页
    start_url = r'https://www.jd.com/'
    driver.get(start_url)
    input_data()


def input_data():
    # 输入数据
    driver.find_element(by=By.ID, value='key').send_keys(keyword)
    time.sleep(2)
    driver.find_element(by=By.CLASS_NAME, value='button').click()
    time.sleep(8)
    Down_Scroll()


def Down_Scroll():
    # 控制鼠标滑到底部
    for i in range(1, 11):
        js_code = 'scrollTo(0, {})'.format(i * 600)
        driver.execute_script(js_code)
        time.sleep(1)
    time.sleep(3)
    get_goods_info()


def get_goods_info():
    # 解析响应
    response = driver.page_source
    html_xpath = etree.HTML(response)
    li_list = html_xpath.xpath('//div[@id="J_goodsList"]/ul/li')
    for li in li_list:
        # 1、商品标题
        goods_name_1 = li.xpath(r'.//div[@class="p-name p-name-type-2"]/a/em/text()')
        goods_name_2 = li.xpath(r'.//div[@class="p-name p-name-type-2"]/a/@title')
        goods_name = goods_name_1 if goods_name_1 != [] else goods_name_2
        goods_name = ''.join(goods_name).replace('\n', '').replace(' ', '').replace('	', '')
        # 2、卖家名字
        sale_name = li.xpath(r'.//a[@class="curr-shop hd-shopname"]/@title')
        sale_name = ''.join(sale_name)
        # 3、商品价格
        goods_price = li.xpath(r'.//div/div[2]/strong/i/text()')
        goods_price = ''.join(goods_price)
        if goods_name != '':
            print(goods_name, sale_name, goods_price, sep=' | ')


def main():
    requests_url()
    input()


if __name__ == '__main__':
    main()
相关推荐
算法小白(真小白)3 小时前
低代码软件搭建自学第二天——构建拖拽功能
python·低代码·pyqt
唐小旭3 小时前
服务器建立-错误:pyenv环境建立后python版本不对
运维·服务器·python
007php0073 小时前
Go语言zero项目部署后启动失败问题分析与解决
java·服务器·网络·python·golang·php·ai编程
Chinese Red Guest3 小时前
python
开发语言·python·pygame
骑个小蜗牛4 小时前
Python 标准库:string——字符串操作
python
黄公子学安全6 小时前
Java的基础概念(一)
java·开发语言·python
程序员一诺6 小时前
【Python使用】嘿马python高级进阶全体系教程第10篇:静态Web服务器-返回固定页面数据,1. 开发自己的静态Web服务器【附代码文档】
后端·python
数据小小爬虫7 小时前
利用Java爬虫获取苏宁易购商品详情
java·开发语言·爬虫
小木_.7 小时前
【Python 图片下载器】一款专门为爬虫制作的图片下载器,多线程下载,速度快,支持续传/图片缩放/图片压缩/图片转换
爬虫·python·学习·分享·批量下载·图片下载器