JavaScript动态渲染页面爬取之Selenium

前面这篇博客讲解了 Ajax 的分析方法,利用 Ajax接口可以非常方便地爬取数据。只要能找到 Ajax接口的规律,就可以通过某些参数构造出对应的请求,自然就能轻松爬取数据啦。

但是在很多情况下,Ajax请求的接口含有加密参数,例如token、sign等,示例网址https://spa2.scrape.center/的Ajax接口就包含一个 token 参数,如下图所示。

由于请求 Ajax接口时必须加上 token参数,因此如果不深人分析并找到token参数的构造逻辑,是难以直接模拟 Ajax 请求的。

方法通常有两种:一种是深挖其中的逻辑,把token参数的构造逻辑完全找出来,再用Python 代码复现,构造Aiax请求;另一种是直接模拟浏览器的运行,绕过这个过程,因为在浏览器里是可以看到这个数据的,所以如果能把看到的数据直接爬取下来,当然就能获取对应的信息了。

第一种方法难度较高,我们先介绍第二种方法:模拟浏览器的运行,爬取数据。由于使用的工具是Selenium,因此先了解一下它的基本使用方法。

Selenium 是一个自动化测试工具,利用它可以驱动浏览器完成特定的操作,例如点击、下拉等还可以获取浏览器当前呈现的页面的源代码,做到所见即所爬,对于一些JavaScript 动态渲染的页面来说,这种爬取方式非常有效。下面我们就来感受一下 Selenium 的强大之处吧。

准备工作

本节以 Chrome 浏览器为例讲解 Selenium 的用法。在开始之前,请确保已经正确安装好了 Chrome

浏览器,并配置好了ChromeDriver。另外,还需要正确安装好Python的 Selenium库。

安装方法可以参考 https://setup.scrape.center/selenium,全部配置完成后,便可以开始本节的学习。

基本用法

首先大体看一下 Selenium的功能。示例代码如下:

python 复制代码
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait

browser = webdriver.Chrome()
try:
    browser.get('https://www.baidu.com')
    input = browser.find_element(by=By.ID, value="kw")
    input.send_keys('Python')
    input.send_keys(Keys.ENTER)
    wait = WebDriverWait(browser, 10)
    wait.until(EC.presence_of_element_located((By.ID, 'content_left')))
    print(browser.current_url)
    print(browser.get_cookies())
    print(browser.page_source)
finally:
    browser.close()

运行代码后,会自动弹出一个Chrome 浏览器。浏览器会跳转到百度页面,然后在搜索框中输入Python,就会跳转到搜索结果页,如下图所示

此时控制台的输出结果如下,因为页面源代码过长,所以此处省略其内容:

text 复制代码
...
    }
});
</script><script src="https://pss.bdstatic.com/static/superman/js/s_super_index-3fffae8d60.js"></script><script src="https://pss.bdstatic.com/static/superman/js/min_super-65c193f420.js"></script><script>
        if(navigator.cookieEnabled){
            document.cookie="NOJS=;expires=Sat, 01 Jan 2000 00:00:00 GMT";
        }
        </script><script src="https://pss.bdstatic.com/static/superman/js/components/hotsearch-9d7c4aa1c3.js"></script><script defer="" src="//hectorstatic.baidu.com/cd37ed75a9387c5b.js"></script><script src="https://hector.baidu.com/a.js" defer=""></script><div class="foot-async-script">
            <script defer="" src="//hectorstatic.baidu.com/cd37ed75a9387c5b.js"></script>
    </div></body></html>

可以看到,我们得到的当前 URL、Cookie 内容和页面源代码都是浏览器中的真实内容。所以说,用Selenium驱动浏览器加载网页,可以直接拿到JavaScript渲染的结果,无须关心使用的是什么加密系统。

下面详细了解一下 Selenium 的用法。

初始化浏览器对象

Selenium 支持的浏览器非常多,既有Chrome、Firefox、Edge、Safari 等电脑端的浏览器,也有Android、BlackBerry等手机端的浏览器。我们可以用如下方式初始化浏览器对象:

python 复制代码
from selenium import webdriver

browser = webdriver.Chrome()
browser = webdriver.Firefox()
browser = webdriver.Edge()
browser = webdriver.Safari()

这样就完成了浏览器对象的初始化,并将其赋值给了browser。接下来,我们要做的就是调用

browser,执行其各个方法以模拟浏览器的操作。

访问页面

我们可以使用get方法请求网页,向其参数传人要请求网页的URL即可。例如,使用get方法访问淘宝,并打印出淘宝页面的源代码,代码如下:

python 复制代码
from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.taobao.com')
print(browser.page_source)
browser.close()

运行这段代码后,弹出了 Chrome 浏览器并且自动访问了淘宝,然后控制台输出了淘宝页面的源代码,随后浏览器关闭。

通过上面几行简单的代码,就可以驱动浏览器并获取网页源码,可谓非常便捷。

查找节点

Selenium 可以驱动浏览器完成各种操作,比如填充表单、模拟点击等。例如,想要往某个输人框中输人文字,总得知道这个输人框在哪儿吧?对此,Selenium为我们提供了一系列用来查找节点的方法,我们可以使用这些方法获取想要的节点,以便执行下一步的操作或者提取信息。

  • 单个节点

例如,想从淘宝页面中提取搜索框这个节点,首先就要观察这个页面的源代码,如下图所示。

可以发现,淘宝页面的id属性值是q,name属性值也是q。此外,还有许多其他属性,我们可以

用多种方式获取它们。例如,find_element by_name 是根据 name属性获取,find_element by_id 是根据 id 属性获取,此外还有根据 XPath、CSS 选择器等的获取方式。

注意:在较新的 Selenium 版本(4.0 及以上)中,推荐的方式是使用 find_element(by=By.ID, value="") 的形式,这使得代码更具有可读性和一致性。

下面我们用代码实现一下:

python 复制代码
from selenium import webdriver
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
browser.get('https://www.taobao.com')
input_first = browser.find_element(by=By.ID, value='q')
input_second = browser.find_element(by=By.CSS_SELECTOR, value='#q')
input_third = browser.find_element(by=By.XPATH, value='//*[@id="q"]')
print(input_first, input_second, input_third)
browser.close()

这里我们使用3种方式获取输人框对应的节点,分别是根据id属性、CSS选择器和 XPath 获取。

代码的运行结果如下:

text 复制代码
<selenium.webdriver.remote.webelement.WebElement (session="23fe0dfff06d4ee47d93b51a47dc0000", element="f.B3D7BB9E582397D61F1C6FA3D8EDFCC1.d.69DC5455A22E663B8F0A6B6938E4B9BE.e.209")> <selenium.webdriver.remote.webelement.WebElement (session="23fe0dfff06d4ee47d93b51a47dc0000", element="f.B3D7BB9E582397D61F1C6FA3D8EDFCC1.d.69DC5455A22E663B8F0A6B6938E4B9BE.e.209")> <selenium.webdriver.remote.webelement.WebElement (session="23fe0dfff06d4ee47d93b51a47dc0000", element="f.B3D7BB9E582397D61F1C6FA3D8EDFCC1.d.69DC5455A22E663B8F0A6B6938E4B9BE.e.209")>

可以看到,3种方式的返回结果完全一致。input first、inputsecond和input third 都属于WebElement类型,是完全一致的。

获取单个节点可以使用 find_element_by_id、find_element_by_name、find_element_by_xpath、

find_element_by_link_text,find_element_by_partial_link_text、find_element_by_tag_name、

find_element_by_class_name、find_element_by_css_selector,这些就是所有的方法。(注意4.3版本后已经把这种写法彻底淘汰了)

除了上述方法,Selenium还提供了通用方法find_element,使用这个方法需要传人两个参数:查

找方式和方式的取值。这个方法其实就是上述那些方法的通用函数版本,不过它的参数更加灵活。例

如 find_element_by_id(id)就等价于 find_element(By.ID,id),两个方法得到的结果是完全一致的。

  • 多个节点

如果查找的目标节点在网页中只有一个,那么用find element方法就完全可以实现。但如果目标节点有多个,再用 find element方法查找,就只能得到第一个节点了,此时需要用find elements方法才能找到所有满足条件的节点。注意,这个方法名称中的element后面多了一个s,注意区分。

例如,要查找淘宝页面左侧导航条的所有条目,就可以这样实现:

python 复制代码
from selenium import webdriver
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
browser.get('https://www.taobao.com')
lis = browser.find_elements(by=By.CSS_SELECTOR, value='.service-bd--LdDnWwA9 li')
print(lis)
browser.close()

运行结果如下:

text 复制代码
[<selenium.webdriver.remote.webelement.WebElement (session="9148559b80b87bcad437315f378b0cc0", element="f.55C4FCE98BF1F536A7BCC481E46DCB04.d.FE054336A87C363A655B7318312B4D87.e.3441")>, <selenium.webdriver.remote.webelement.WebElement (session="9148559b80b87bcad437315f378b0cc0", element="f.55C4FCE98BF1F536A7BCC481E46DCB04.d.FE054336A87C363A655B7318312B4D87.e.3442")>, <selenium.webdriver.remote.webelement.WebElement (session="9148559b80b87bcad437315f378b0cc0", element="f.55C4FCE98BF1F536A7BCC481E46DCB04.d.FE054336A87C363A655B7318312B4D87.e.3443")>, <selenium.webdriver.remote.webelement.WebElement (session="9148559b80b87bcad437315f378b0cc0", element="f.55C4FCE98BF1F536A7BCC481E46DCB04.d.FE054336A87C363A655B7318312B4D87.e.3444")>, <selenium.webdriver.remote.webelement.WebElement (session="9148559b80b87bcad437315f378b0cc0", element="f.55C4FCE98BF1F536A7BCC481E46DCB04.d.FE054336A87C363A655B7318312B4D87.e.3445")>, <selenium.webdriver.remote.webelement.WebElement (session="9148559b80b87bcad437315f378b0cc0", element="f.55C4FCE98BF1F536A7BCC481E46DCB04.d.FE054336A87C363A655B7318312B4D87.e.3446")>, <selenium.webdriver.remote.webelement.WebElement (session="9148559b80b87bcad437315f378b0cc0", element="f.55C4FCE98BF1F536A7BCC481E46DCB04.d.FE054336A87C363A655B7318312B4D87.e.3447")>, <selenium.webdriver.remote.webelement.WebElement (session="9148559b80b87bcad437315f378b0cc0", element="f.55C4FCE98BF1F536A7BCC481E46DCB04.d.FE054336A87C363A655B7318312B4D87.e.3448")>, <selenium.webdriver.remote.webelement.WebElement (session="9148559b80b87bcad437315f378b0cc0", element="f.55C4FCE98BF1F536A7BCC481E46DCB04.d.FE054336A87C363A655B7318312B4D87.e.3449")>, <selenium.webdriver.remote.webelement.WebElement (session="9148559b80b87bcad437315f378b0cc0", element="f.55C4FCE98BF1F536A7BCC481E46DCB04.d.FE054336A87C363A655B7318312B4D87.e.3450")>, <selenium.webdriver.remote.webelement.WebElement (session="9148559b80b87bcad437315f378b0cc0", element="f.55C4FCE98BF1F536A7BCC481E46DCB04.d.FE054336A87C363A655B7318312B4D87.e.3451")>]

可以看到,得到的内容变成了列表类型,列表中的每个节点都属于 WebElement 类型。

总结一下,如果使用find_element方法查找,只能得到匹配成功的第一个节点,这个节点是WebElement 类型的。如果使用 find_elements 方法,那么结果是列表类型的,列表中的每个节点都属于WebElement类型。

节点交互

Selenium 可以驱动浏览器执行一些操作。比较常见的用法有:用send keys 方法输入文字,用 clear方法清空文字,用click方法点击按钮。示例如下:

python 复制代码
from selenium import webdriver
import time
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
browser.get('https://www.taobao.com')
input = browser.find_element(By.ID, 'q')
input.send_keys('iPhone')
time.sleep(1)
input.clear()
input.send_keys('iPad')
button = browser.find_element(By.CLASS_NAME, 'btn-search')
button.click()

这里首先驱动浏览器打开淘宝,然后使用find_element(By.ID, 'q')方法获取输人框,再使用 send_keys

方法输入文字 iPhone,等待一秒后用clear 方法清空输人框,并再次调用 send keys 方法输人文字

iPad,之后使用 find_element(By.CLASS_NAME, 'btn-search') 方法获取搜索按钮,最后调用 click 方法实现搜索。

通过上面的方法,我们完成了几种常见的节点操作,更多操作可以参见官方文档的交互动作介绍:

http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.remote.webelement.

动作链

在上面的实例中,交互操作都是针对某个节点执行的。例如,对于输人框,调用了它的输人文字方法 send_keys 和清空文字方法 clear;对于搜索按钮,调用了它的点击方法click。其实还有一些操作,它们没有特定的执行对象,比如鼠标拖曳、键盘按键等,这些操作需要用另一种方式执行,那就是动作链。

例如,可以这样实现拖曳节点的操作,将某个节点从一处拖曳至另一处:

python 复制代码
from selenium import webdriver
from selenium.webdriver import ActionChains
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
url = 'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable'
browser.get(url)
browser.switch_to.frame('iframeResult')
source = browser.find_element(By.CSS_SELECTOR, '#draggable')
target = browser.find_element(By.CSS_SELECTOR, '#droppable')
actions = ActionChains(browser)
actions.drag_and_drop(source, target)
actions.perform()

这里首先打开网页中的一个拖曳实例,然后依次选中要拖曳的节点和拖曳至的目标节点,接着声明一个 ActionChains 对象并赋值给 actions 变量,再后调用 actions 变量的 drag_and_drop 方法声明拖曳对象和拖曳目标,最后调用 perform 方法执行动作,就完成了拖曳操作,拖曳前和拖曳后的页面图和图所示。

更多的动作链操作可以参考官方文档的介绍:http://selenium-python.readthedocs.io/api.html#module-

selenium.webdriver.common.action_chains.

运行JavaScript

还有一些操作,Selenium 没有提供API。例如下拉进度条,面对这种情况可以模拟运行 JavaScript.

此时使用execute_script方法即可实现,代码如下:

python 复制代码
from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.zhihu.com/explore')
browser.execute_script('window.scrollTo(0, document.body.scrollHeight)')
browser.execute_script('alert("To Bottom")')

这里利用execute_script方法将进度条下拉到了最底部,然后就弹出了警告提示框。所以说有了execute _script 方法,那些没有被提供API的功能几乎都可以用运行 JavaScript 的方式实现。

获取节点信息

前面我们已经通过 page_source 属性获取了网页的源代码,下面就可以使用解析库(如正则表达、

Beautiful Soup、pyquery等)从中提取信息了。

不过,既然 Selenium 已经提供了选择节点的方法,返回的结果是 WebElement 类型,那么它肯定

也有相关的方法和属性用来直接提取节点信息,例如属性、文本值等。这样我们就不需要用通过解析

源代码提取信息了,非常方便。

让我们一起看看怎样获取节点信息吧。

  • 获取属性

可以使用 get_attribute 方法获取节点的属性,但其前提是得先选中这个节点,示例如下:

python 复制代码
from selenium import webdriver
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
url = 'https://spa2.scrape.center/'
browser.get(url)
logo = browser.find_element(By.CLASS_NAME, 'logo-image')
print(logo)
print(logo.get_attribute('src'))

运行代码,它会驱动浏览器打开示例页面,然后获取其中class名称为logo-image的节点,最后

打印出这个节点的 src 属性。

控制台的输出结果如下:

text 复制代码
<selenium.webdriver.remote.webelement.WebElement (session="456aa31b2848b92d23ba7f226bba2761", element="f.F9DA982AAFF2C3C3C7B22D7237C02A47.d.8E6897CD20DA15273FF895464C86FB50.e.27")>
https://spa2.scrape.center/img/logo.a508a8f0.png

向 get_attribute 方法的参数传人想要获取的属性名,就可以得到该属性的值了。

  • 获取文本值

每个 webElement节点都有text 属性,直接调用这个属性就可以得到节点内部的文本信息,相当

于 pyquery 中的 text方法,示例如下:

python 复制代码
from selenium import webdriver
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
url = 'https://spa2.scrape.center/'
browser.get(url)
input = browser.find_element(By.CLASS_NAME, 'logo-title')
print(input.text)

这里依然先打开示例页面,然后获取class名称为logo-title的节点,再将该节点内部的文本值打印出来。

控制台的输出结果如下:

text 复制代码
Scrape
  • 获取 ID、位置、标签名和大小

除了属性和文本值,WebElement节点还有一些其他属性,例如id属性用于获取节点ID,location属性用于获取节点在页面中的相对位置,tag_name属性用于获取标签的名称,size属性用于获取节点的大小,也就是宽高,这些属性有时候还是很有用的。示例如下:

python 复制代码
from selenium import webdriver
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
url = 'https://spa2.scrape.center/'
browser.get(url)
input = browser.find_element(By.CLASS_NAME, 'logo-title')
print(input.id)
print(input.location)
print(input.tag_name)
print(input.size)

这里首先获取 class 名称为logo-title的节点,然后分别调用该节点的id、location、tag_name、size 属性获取了对应的属性值。

切换Frame

我们知道,网页中有一种节点叫作 iframe,也就是子Frame,相当于页面的子页面,它的结构和外部网页的结构完全一致。Selenium打开一个页面后,默认是在父Frame里操作,此时这个页面中如果还有子 Frame,它是不能获取子Frame里的节点的,这时就需要使用 switch to.frame 方法切换Frame。示例如下:

python 复制代码
import time
from selenium import webdriver
from selenium.common import NoSuchElementException
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
url = 'http://www.runoob.com/try/try.php?filename-jqueryui-api-droppable'
browser.get(url)
browser.switch_to.frame('iframeResult')
try:
    logo = browser.find_element(By.CLASS_NAME, 'logo')
except NoSuchElementException:
    print('NO LOGO')
browser.switch_to.parent_frame()
logo = browser.find_element(By.CLASS_NAME, 'logo')
print(logo)
print(logo.text)

这里还是以演示动作链操作时的网页为例,首先通过switch to.frame方法切换到子Frame 里,然后

尝试获取其中的logo节点(子Frame里并没有 10go节点),如果找不到,就会抛NoSuchElementException

异常,异常被捕捉后,会输出NO LOGO。接着,切换回父Frame,重新获取logo节点,发现此时可以

成功获取了。

所以,当页面中包含子Frame 时,如果想获取子Frame中的节点,需要先调用switch_to.frame 方法切换到对应的 Frame,再进行操作。

延时等待

在 Selenium 中,get 方法在网页框架加载结束后才会结束执行,如果我们尝试在 get 方法执行完毕时获取网页源代码,其结果可能并不是浏览器完全加载完成的页面,因为某些页面有额外的 Aiax请求,页面还会经由JavaScript 渲染。所以,在必要的时候,我们需要设置浏览器延时等待一定的时间,确保节点已经加载出来。

这里等待方式有两种:一种是隐式等待,一种是显式等待。

  • 隐式等待

使用隐式等待执行测试时,如果Selenium没有在DOM中找到节点,将继续等待,在超出设定时间后,抛出找不到节点的异常。换句话说,在查找节点而节点没有立即出现时,隐式等待会先等待一段时间再查找 DOM,默认的等待时间是0。示例如下:

python 复制代码
from selenium import webdriver
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
browser.implicitly_wait(10)
browser.get('https://spa2.scrape.center/')
input = browser.find_element(By.CLASS_NAME, 'logo-image')
print(input)

这里我们用 implicitly_wait 方法实现了隐式等待。

  • 显示等待

隐式等待的效果其实并不好,因为我们只规定了一个固定时间,而页面的加载时间会受网络条件影响。

还有一种更合适的等待方式--显式等待,这种方式会指定要查找的节点和最长等待时间。如果在规定时间内加载出了要查找的节点,就返回这个节点;如果到了规定时间依然没有加载出点,就抛出超时异常。示例如下:

python 复制代码
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.wait import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC

browser = webdriver.Chrome()
browser.get('https://www.taobao.com/')
wait = WebDriverWait(browser, 10)
input = wait.until(EC.presence_of_element_located((By.ID, 'q')))
button = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, '.btn-search')))
print(input, button)

这里首先引人 WebDriverwait 对象,指定最长等待时间为10,并赋值给 wait 变量。然后调用 wait的 until方法,传人等待条件。

这里先传人了presence_of_element_located这个条件,代表节点出现,其参数是节点的定位元组

(By.ID,'q'),表示节点ID为q的节点(即搜索框 )。这样做达到的效果是如果节点ID为q的节点在10秒内成功加载出来了,就返回该节点:如果超过10秒还没有加载出来,就抛出异常。

然后传入的等待条件是element_to_be_clickable,代表按钮可点击,所以查找按钮时要查找 CSS选择器为.btn-search的按钮,如果10秒内它是可点击的,也就是按钮节点成功加载出来了,就返回该节点:如果超过10秒还是不可点击,也就是按钮节点没有加载出来,就抛出异常。

运行代码,在网速较佳的情况下是可以成功加载出节点的。

控制台的输出结果如下:

text 复制代码
<selenium.webdriver.remote.webelement.WebElement (session="b7f1c45eebf929f5530affa163e105b1", element="f.888EE52E0ACFF68E933927E6BAF3AB82.d.15367C1B79F033E1806A40E6AD0FCDB6.e.223")> 
<selenium.webdriver.remote.webelement.WebElement (session="b7f1c45eebf929f5530affa163e105b1", element="f.888EE52E0ACFF68E933927E6BAF3AB82.d.15367C1B79F033E1806A40E6AD0FCDB6.e.222")>

可以看到,成功输出了两个节点,都是WebElement 类型的。

如果网络有问题,10秒到了还是没有成功加载,就抛出TimeoutException异常。

除了我们介绍的这两个,等待条件其实还有很多,例如判断标题内容、判断某个节点内是否出现了某文字等。下表列出了所有等待条件。

更多等待条件的参数及用法介绍可以参考官方文档:https://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.support.expected_conditions

前进和后退

平常使用浏览器时,都有前进和后退功能,Selenium也可以完成这个操作,它使用 forward 方法实现前进,使用 back 方法实现后退。示例如下:

python 复制代码
import time

from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.baidu.com/')
browser.get('https://www.taobao.com/')
browser.get('https://www.python.org/')
browser.back()
time.sleep(1)
browser.forward()
browser.close()

这里我们先连续访问了3个页面,然后调用back方法回到第2个页面,接着调用forward方法又前进到第3个页面。

Coocie

使用 Selenium,还可以方便地对 Cookie 进行操作,例如获取、添加、删除等。示例如下:

python 复制代码
from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.zhihu.com/explore')
print(browser.get_cookies())
browser.add_cookie({'name': 'name', 'domain': 'www.zhihu.com', 'value': 'germey'})
print(browser.get_cookies())
browser.delete_all_cookies()
print(browser.get_cookies())

这里我们先访问了知乎。知乎页面加载完成后,浏览器其实已经生成Cookie了。然后,调用浏览器对象的get_cookies方法获取所有的Cookie。接着,添加一个Cookie,这里传人了一个字典,包含 name、domain和 value 等键值。之后,再次获取所有的Cookie,会发现结果中多了一项,就是我们新加的 Cookie。最后,调用delete_all_cookies 方法删除所有的 Cookie 并再次获取,会发现此时结果就为空了。

控制台的输出结果如下:

text 复制代码
[{'domain': '.zhihu.com', 'httpOnly': False, 'name': 'HMACCOUNT', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': '1B20E14B05BB092C'}, {'domain': '.zhihu.com', 'httpOnly': False, 'name': 'Hm_lpvt_98beee57fd2ef70ccdd5ca52b9740c49', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': '1736131964'}, {'domain': '.zhihu.com', 'expiry': 1770691962, 'httpOnly': False, 'name': 'd_c0', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': 'ACBSZYR1zhmPTlTmnysNXCH99MPQsTn-Avk=|1736131962'}, {'domain': '.zhihu.com', 'httpOnly': False, 'name': '_xsrf', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': '14fe0980-4f26-44b4-b9ab-29573b0d23b5'}, {'domain': '.zhihu.com', 'expiry': 1767667964, 'httpOnly': False, 'name': 'Hm_lvt_98beee57fd2ef70ccdd5ca52b9740c49', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': '1736131964'}, {'domain': 'www.zhihu.com', 'expiry': 1736135562, 'httpOnly': False, 'name': 'BEC', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': '8b4a1b0a664dd5d88434ef53342ae417'}, {'domain': '.zhihu.com', 'expiry': 1770691962, 'httpOnly': False, 'name': '_zap', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': 'd4a25053-27bb-43d1-8ea3-bee5f65ba35e'}]
[{'domain': '.zhihu.com', 'httpOnly': False, 'name': 'HMACCOUNT', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': '1B20E14B05BB092C'}, {'domain': 'www.zhihu.com', 'httpOnly': False, 'name': 'SESSIONID', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': '4wkdxxXoJiQt4sgiqs9owUFe3AHVi3jqFAnV2iBI9P7'}, {'domain': '.zhihu.com', 'httpOnly': False, 'name': 'Hm_lpvt_98beee57fd2ef70ccdd5ca52b9740c49', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': '1736131964'}, {'domain': '.zhihu.com', 'expiry': 1770691962, 'httpOnly': False, 'name': 'd_c0', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': 'ACBSZYR1zhmPTlTmnysNXCH99MPQsTn-Avk=|1736131962'}, {'domain': '.zhihu.com', 'httpOnly': False, 'name': '_xsrf', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': '14fe0980-4f26-44b4-b9ab-29573b0d23b5'}, {'domain': '.zhihu.com', 'expiry': 1767667964, 'httpOnly': False, 'name': 'Hm_lvt_98beee57fd2ef70ccdd5ca52b9740c49', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': '1736131964'}, {'domain': 'www.zhihu.com', 'expiry': 1736135562, 'httpOnly': False, 'name': 'BEC', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': '8b4a1b0a664dd5d88434ef53342ae417'}, {'domain': '.www.zhihu.com', 'httpOnly': False, 'name': 'name', 'path': '/', 'sameSite': 'Lax', 'secure': True, 'value': 'germey'}, {'domain': '.zhihu.com', 'expiry': 1770691962, 'httpOnly': False, 'name': '_zap', 'path': '/', 'sameSite': 'Lax', 'secure': False, 'value': 'd4a25053-27bb-43d1-8ea3-bee5f65ba35e'}]
[]

通过以上方法操作Cookie还是非常方便的。

选项卡管理

访问网页的时候,会开启一个个选项卡。在Selenium中,我们也可以对选项卡做操作。示例如下:

python 复制代码
import time

from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.execute_script('window.open()')
print(browser.window_handles)
browser.switch_to.window(browser.window_handles[1])
browser.get('https://www.taobao.com')
time.sleep(1)
browser.switch_to.window(browser.window_handles[0])
browser.get('https://python.org')

这里首先访问百度,然后调用execute script方法,向其参数传人window.open()这个JavaScript语句,表示新开启一个选项卡。接着,我们想切换到这个新开的选项卡。window_handles 属性用于获取当前开启的所有选项卡,返回值是选项卡的代号列表。要想切换选项卡,只需要调用switch_to.window方法即可,其中参数是目的选项卡的代号。这里我们将新开选项卡的代号传人,就切换到了第2个选项卡,然后在这个选项卡下打开一个新页面,再重新调用switch_to.window方法切换回第1个选项卡。

控制台的输出结果如下:

text 复制代码
['72223E6BFD9A1FB8F0260BF2D9280806', 'D0C322A0124EE7E12F381F0F90E909D8']

异常处理

在使用 Selenium 的过程中,难免会遇到一些异常,例如超时、节点未找到等,一旦出现此类异常程序便不会继续运行了。此时我们可以使用tryexcept语句捕获各种异常。

首先,演示一下节点未找到的异常,示例如下:

python 复制代码
from selenium import webdriver
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.find_element(By.ID, 'hello')

这里首先打开百度页面,然后尝试选择一个并不存在的节点,就会遇到节点未找到的异常。

控制台的输出结果如下:

text 复制代码
...
selenium.common.exceptions.NoSuchElementException: Message: no such element: Unable to locate element: {"method":"css selector","selector":"[id="hello"]"}
...

可以看到,这里抛出了NoSuchElementException异常,这通常表示节点未找到。为了防止程序遇到异常而中断运行,我们需要捕获这些异常,示例如下:

python 复制代码
from selenium import webdriver
from selenium.common import TimeoutException, NoSuchElementException
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
try:
    browser.get('https://www.baidu.com')
except TimeoutException:
    print('Time Out')
try:
    browser.find_element(By.ID, 'hello')
except NoSuchElementException:
    print('No Element')
finally:
    browser.close()

这里我们使用 try except语句捕获各类异常。例如,对查找节点的方法find_element_by_id捕获

NoSuchElementException 异常,这样一旦出现这样的错误,就会进行异常处理,程序也不会中断。

控制台的输出结果如下:

text 复制代码
No Element

关于更多的异常类,可以参考官方文档:http://selenium-python.readthedocs.io/api.html#module-selenium.common.exceptions。

反屏蔽

现在有很多网站增加了对 Selenium 的检测,防止一些爬虫的恶意爬取,如果检测到有人使Selenium 打开浏览器,就直接屏蔽。

在大多数情况下,检测的基本原理是检测当前浏览器窗口下的window.navigator 对象中是否包含webdriver属性。因为在正常使用浏览器时,这个属性应该是undefined,一旦使用了 Selenium,它就

会给 window.navigator对象设置 webdriver属性。很多网站通过 JavaScript 语句判断是否存在

webdriver属性,如果存在就直接屏蔽。

一个典型的案例网站 https://antispider1.scrape.center/就是使用上述原理,检测是否存在 webdriver

属性,如果我们使用Selenium 直接爬取该网站的数据,网站就会返回如下图所示的页面。

这时可能有人会说直接使用JavaScript语句把webdriver 属性置空不就行了,例如调用execute_script方法执行这行代码:

python 复制代码
object.defineProperty(navigator,"webdriver",{get:()=>undefined})

这行代码的确可以把 webdriver 属性置空,但execute script 方法是在页面加载完毕之后才调用这行 JavaScript 语句的,太晚了,网站早在页面渲染之前就已经检测 webdriver 属性了,所以上述方法并不能达到预期的效果。

在 Selenium 中,可以用CDP(即 Chrome Devtools Protocol,Chrome 开发工具协议)解决这个问题,利用它可以实现在每个页面刚加载的时候就执行JavaScript语句,将webdriver 属性置空。这里执行的 CDP方法叫作 Page.addscriptToEvaluate0nNewDocument,将上面的 JavaScript 语句传人其中即可。另外,还可以加入几个选项来隐藏 webDriver提示条和自动化扩展信息,代码实现如下:

python 复制代码
from selenium import webdriver

from selenium.webdriver import ChromeOptions

option = ChromeOptions()
option.add_experimental_option('excludeSwitches', ['enable-automation'])
option.add_experimental_option('useAutomationExtension', False)
browser = webdriver.Chrome(options=option)
browser.execute_cdp_cmd('Page.addScriptToEvaluateOnNewDocument',
                        {'source': 'Object.defineProperty(navigator,"webdriver",{get:()=>undefined})'})
browser.get('https://antispider1.scrape.center/')

这样就能加载出整个页面了。

在大多数时候,以上方法可以实现 Selenium的反屏蔽。但也存在一些特殊网站会对WebDriver 属性设置更多的特征检测,这种情况下可能需要具体排查。

无头模式

不知道大家是否观察到,上面的案例在运行时,总会弹出一个浏览器窗口,虽然有助于观察页面的爬取状况,但窗口弹来弹去有时也会造成一些干扰。

Chrome 浏览器从 60版本起,已经开启了对无头模式的支持,即 Headless。无头模式下,在网站运行的时候不会弹出窗口,从而减少了干扰,同时还减少了一些资源(如图片)的加载,所以无头模式也在一定程度上节省了资源加载的时间和网络带宽。

我们可以借助 Chrome0ptions 对象开启 Chrome 浏览器的无头模式,代码实现如下:

python 复制代码
from selenium import webdriver

from selenium.webdriver import ChromeOptions

option = ChromeOptions()
option.add_argument('--headless')
browser = webdriver.Chrome(options=option)
browser.set_window_size(1366, 768)
browser.get('https://www.baidu.com')
browser.get_screenshot_as_file('preview.png')

这里利用 Chrome0ptions 对象的 add argument方法添加了一个参数 --headless,从而开启了无头模式。在无头模式下,最好设置一下窗口的大小,因此这里调用了set_window_size 方法。之后打开页面,并调用 get_screenshot_as _file 方法输出了页面截图。

运行这段代码后,会发现窗口不会再弹出来了,代码依然正常运行,最后输出的页面截图如下图所示。

相关推荐
@_猿来如此2 小时前
Web网页制作之JavaScript的应用
前端·javascript·css·html·html5
Excel_VBA表格จุ๊บ5 小时前
wps宏js接入AI功能和接入翻译功能
javascript·wps·js宏
豪宇刘6 小时前
JavaScript 延迟加载的方法
开发语言·javascript
摇光936 小时前
js迭代器模式
开发语言·javascript·迭代器模式
謬熙7 小时前
【UI自动化测试】selenium八种定位方式
selenium·测试工具
anyup_前端梦工厂8 小时前
了解 ES6 的变量特性:Var、Let、Const
开发语言·javascript·ecmascript
每天都要进步哦9 小时前
Node.js中的fs模块:文件与目录操作(写入、读取、复制、移动、删除、重命名等)
前端·javascript·node.js
布兰妮甜9 小时前
Three.js 渲染技术:打造逼真3D体验的幕后功臣
javascript·3d·three.js·幕后
测试杂货铺9 小时前
selenium遇见伪元素该如何处理?
自动化测试·软件测试·python·selenium·测试工具·职场和发展·测试用例
小馋喵知识杂货铺9 小时前
Selenium 八大元素定位方法及场景扩展
selenium·测试工具