使用Selenium浏览器自动抓取cabrbetc网站的样品信息

from selenium import webdriver

from bs4 import BeautifulSoup

import time

'''

#根据委托编号创建查询网址

text = "BETC-HJ-2024-P-00362"

url = "http://weixin.cabr-betc.com/gjwx/wxfind/findreport?prtnum="+text

print(url)

'''

将委托单位名称转化成utf-8格式,并用%连接转化后16进制,导入cabr-betc报告的查询网址url中

text = "中寓装配(江苏)新材料有限公司"

utf8_encoded_text = text.encode('utf-8')

hex_representation = '%'.join(hex(b)[2:] for b in utf8_encoded_text)

#print(hex_representation)

url = "http://weixin.cabr-betc.com/gjwx/wxfind/findreport?prtnum=\&xmname=\&wtunit=%"+hex_representation+"\&page=1\&rows=1000"

print(url)

创建 Chrome 浏览器驱动实例

driver = webdriver.Chrome()

打开指定网址

driver.get(url)

等待页面加载完成,可根据实际情况调整等待时间

time.sleep(5)

获取页面源代码

page_source = driver.page_source

使用 BeautifulSoup 解析页面源代码

soup = BeautifulSoup(page_source, 'html.parser')

查找所有报告编号元素并打印

report_numbers = soup.find_all('div', class_='weui-cell__bd')

for number in report_numbers:

print(number.text)

关闭浏览器驱动

driver.close()

相关推荐
d***95623 小时前
爬虫自动化(DrissionPage)
爬虫·python·自动化
APIshop3 小时前
Python 零基础写爬虫:一步步抓取商品详情(超细详解)
开发语言·爬虫·python
二川bro4 小时前
AutoML自动化机器学习:Python实战指南
python·机器学习·自动化
杨超越luckly4 小时前
基于 Overpass API 的城市电网基础设施与 POI 提取与可视化
python·数据可视化·openstreetmap·电力数据·overpass api
q***23575 小时前
python的sql解析库-sqlparse
数据库·python·sql
18你磊哥5 小时前
Django WEB 简单项目创建与结构讲解
前端·python·django·sqlite
月殇_木言6 小时前
Python期末复习
开发语言·python
BBB努力学习程序设计7 小时前
Python面向对象编程:从代码搬运工到架构师
python·pycharm
rising start7 小时前
五、python正则表达式
python·正则表达式
BBB努力学习程序设计8 小时前
Python错误处理艺术:从崩溃到优雅恢复的蜕变
python·pycharm