爬虫练习:Selenium使用案例

一、获取某电商平台商品信息

python 复制代码
from selenium import webdriver
from selenium.webdriver.common.by import By
import time
import csv

with open('苏宁商品.csv',mode='a',newline='',encoding='utf-8') as f:
    csv_writer = csv.writer(f)
    csv_writer.writerow(['title','price','comment','shop_name','href'])
#打开谷歌浏览器
driver = webdriver.Chrome()
#打开网页
driver.get('https://search.suning.com/%E7%A9%BA%E8%B0%83/')
driver.implicitly_wait(5)


#滚动
driver.execute_script('document.querySelector("body > div.ng-footer > div.ng-s-footer").scrollIntoView()')
time.sleep(1)
driver.execute_script('document.querySelector("body > div.ng-footer > div.ng-s-footer").scrollIntoView()')
#document.querySelector("body > div.ng-footer > div.ng-s-footer")
time.sleep(1)
#提取数据
divs = driver.find_elements(By.CSS_SELECTOR,'.product-box')
for div in divs:
    price = div.find_element(By.CSS_SELECTOR,'.price-box').text
    title = div.find_element(By.CSS_SELECTOR,'.title-selling-point').text
    comment = div.find_element(By.CSS_SELECTOR,'.info-evaluate').text
    shop_name = div.find_element(By.CSS_SELECTOR,'.store-stock').text
    href = div.find_element(By.CSS_SELECTOR,'.info-evaluate a').get_attribute('href')
    print(title,price,comment,shop_name,href)
    with open('苏宁商品.csv', mode='w', newline='', encoding='utf-8') as f:
        csv_writer = csv.writer(f)
        csv_writer.writerow([title,price,comment,shop_name,href])

input()

二、获取某网站小说信息

python 复制代码
url ="https://www.00ksw.com/html/3/3804/"
from selenium.webdriver import Chrome
from selenium.webdriver.common.by import By
driver = Chrome()
driver.get(url)
# print(driver.page_source)
links = driver.find_elements(By.XPATH,  "//div[@class='ml list']//ul//li//a")
for link in links:
    print(link)

版权声明和免责声明

本博客提供的所有爬虫代码和相关内容(以下简称"内容")仅供参考和学习之用。任何使用或依赖这些内容的风险均由使用者自行承担。我(博客所有者)不对因使用这些内容而产生的任何直接或间接损失承担责任。

严禁将本博客提供的爬虫代码用于任何违法、不道德或侵犯第三方权益的活动。使用者应当遵守所有适用的法律法规,包括但不限于数据保护法、隐私权法和知识产权法。

如果您选择使用本博客的爬虫代码,您应当确保您的使用行为符合所有相关法律法规,并且不会损害任何人的合法权益。在任何情况下,我(博客所有者)均不对您的行为负责。

如果您对本声明有任何疑问,或者需要进一步的澄清,请通过我的联系方式与我联系。

相关推荐
傻啦嘿哟2 小时前
Docker部署Scrapy集群:爬虫容器化实战指南
爬虫·scrapy·docker
小白学大数据2 小时前
利用 Selenium 与 BeautifulSoup 构建链家动态爬虫
开发语言·爬虫·selenium·beautifulsoup
2501_924064112 小时前
2025年主流接口测试工具对比分析与最佳实践指南
测试工具
oh-pinpin3 小时前
【jmeter】-脚本-接口自动获取token
测试工具·jmeter·压力测试
李昊哲小课4 小时前
简化版天气爬虫教程
爬虫·python
电商API_180079052475 小时前
淘宝商品视频提取API全解析:从授权到落地实战
爬虫·python·信息可视化·数据分析·音视频
卓码软件测评6 小时前
第三方软件测试机构【Gatling源码的本地编译构建方法】
测试工具·性能优化·单元测试·测试用例
hugh_oo9 小时前
100 天学会爬虫 · Day 16:如何分析登录接口?爬虫视角下的登录流程拆解方法
爬虫
盼哥PyAI实验室10 小时前
Python 爬虫实战:从 Ajax 到 POST 请求,完整爬取汉堡王门店与产品数据
爬虫·python·ajax
JHC00000012 小时前
推特(X)平台推文自动保存(支持保存所有推文相关数据到服务器)
运维·服务器·爬虫·python·dreamweaver