【酱浦菌-爬虫项目】爬取学术堂论文信息

  1. 首先,代码定义了一个名为

```

url

```

的变量,它是一个包含三个网址的集合(或者说是一个集合的字典)。这些网址分别是:

  1. 接下来,设置了一个HTTP请求的头部信息,模拟了一个Chrome浏览器的请求。

  2. 然后,通过`requests.get()`方法,分别发送GET请求到这三个URL,并将响应内容保存在`response`变量中。

  3. 由于网站的编码方式可能不同,这里使用了一些编码转换操作:

  • `response.text.encode('iso-8859-1').decode('gbk')`将响应内容从ISO-8859-1编码转换为GBK编码。
  1. 创建一个`parsel.Selector`对象,用于解析HTML内容。

  2. 从HTML中选择所有满足条件的元素:

  • 使用CSS选择器`'p span[style="font-family: 宋体"]'`,找到所有带有`style`属性值为"font-family: 宋体"的`<span>`元素。

  • 使用XPath表达式`.//text()`,提取这些`<span>`元素内的文本内容。

  1. 遍历每个提取到的文本:
  • 打印文本内容,表示下载成功。

  • 将文本内容追加到名为'pc_biye.text'的文件中(以UTF-8编码保存)。

  1. 最后,完成了对这三个网址的文本下载操作。

完整代码如下:

python 复制代码
import requests
import parsel
import os 
url = {
    'http://www.xueshut.com/lwtimu/127966.html',
    'http://www.xueshut.com/lwtimu/127966_2.html',
    'http://www.xueshut.com/lwtimu/127966_3.html'   
}
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/124.0.0.0 Safari/537.36'
}
for url in url:
    response = requests.get(url=url, headers=headers)
    response_decoded = response.text.encode('iso-8859-1').decode('gbk')
    selector = parsel.Selector(response_decoded)
    text = selector.css('p span[style="font-family: 宋体"]').xpath('.//text()').extract()
    for text in text:
        print(f'{text}下载成功')
        #print("\n")
        with open('pc_biye.text','a',encoding='utf-8') as f:
            f.write(text)

运行效果如下:

相关推荐
不叫猫先生2 小时前
SERP企业级AI高效爬虫,告别延迟,大规模抓取高效落地
爬虫
xinxinhenmeihao8 小时前
有哪些原因会让爬虫代理IP失效?
爬虫·tcp/ip·php
喵手9 小时前
Python爬虫零基础入门【第二章:网页基础·第1节】网页是怎么工作的:URL、请求、响应、状态码?
爬虫·python·python爬虫实战·python爬虫工程化实战·python爬虫零基础入门·网页基础
喵手10 小时前
Python爬虫零基础入门【第二章:网页基础·第4节】新手最常栽的坑:编码、时区、空值、脏数据!
爬虫·python·python爬虫实战·python爬虫工程化实战·python爬虫零基础入门·python爬虫编码时区·爬虫编码时区
癫狂的兔子10 小时前
【Python】【爬虫】爬取虎扑网NBA排行数据
数据库·爬虫·python
小白学大数据11 小时前
移动端Temu App数据抓包与商品爬取方案
开发语言·爬虫·python
喵手13 小时前
Python爬虫零基础入门【第二章:网页基础·第3节】接口数据基础:JSON 是什么?分页是什么?
爬虫·python·python爬虫实战·python爬虫工程化实战·python爬虫零基础入门·接口数据基础·爬虫json
极安代理13 小时前
HTTP代理IP如何提升爬虫采集效率?
爬虫·tcp/ip·http
喵手14 小时前
Python爬虫零基础入门【第二章:网页基础·第2节】你要抓的到底是什么:HTML、CSS 选择器、XPath 入门?
爬虫·python·python爬虫实战·python爬虫工程化实战·python爬虫零基础入门·网页基础·网页结构解析
喵手16 小时前
Python爬虫零基础入门【第一章:开篇与准备·第2节】环境搭建:Python/虚拟环境/依赖/抓包工具一次搞定!
爬虫·python·抓包工具·python爬虫实战·环境准备·python环境配置·python爬虫工程化实战