初级爬虫的总结一

初级爬虫的总结一之百度网页爬虫

我遇到的问题:

1、没有找对网页sugrec,导致connect-type没有找对,以及一些小问题

2、url拼接时候出现乱码


一、寻找正确的sugrec

1、打开百度网址,看看进行搜索时候,该网页标签是否在进行变化

2、右键点开查找

3、点击网络,再点击下面的fetch/XHR

4、点击百度一下,请注意出现的这个sugrec,之后会用到的

5、输入你要查找的词汇,在网址栏中喜欢后面的删除,回车一下,将会得到,我们需要的sugrec

6、得到要用的sugrec

二、url拼接出问题,解决办法

当 response = requests.get(url=url,params=param,headers=headers) 中无法出现正确的地址时

采用:

复制代码
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import requests
rom urllib.parse import urljoin, quote, urlencode

if __name__ =="__main__":
    headers={
        "User-Agent":"填你自己的"
    }
    base_url = "https://www.baidu.com/"
    # 拼接URL
    url = urljoin(base_url, 's?wd=')
   #检查URL是否拼接正确
    print(url)
    # 动态查询
    kw = input('enter a word:')
    url=url+kw
    # response = requests.get(url=url,params=param,headers=headers)
    response = requests.get(url=url, headers=headers)
    #print(response.status_code) #检查response是否查询成功 200(成果)
    page_text = response.text
    filename =kw+'.html'
    with open(filename,'w',encoding='utf-8') as fp:
        fp.write(page_text)
    print(filename,'over!')

一点点的拓展关于json:

不知道json代码哪里出问题了,可以采用以下的代码:

复制代码
    try:
        dic_obj = response.json()
        except json.JSONDecodeError:
        print('JSON解析错误,响应内容可能不是有效的JSON格式')
       except requests.exceptions.RequestException as e:
        print(f'请求发生错误:{e}')
    else:
        print(dic_obj)
        fileName=kw+'.json'
        fp = open('fileName','w',encoding='utf-8')
        json.dump(dic_obj,fp=fp,ensure_ascii=False)
        print('over!')
相关推荐
进击的雷神5 分钟前
攻克JSON接口分页与对象数组处理:基于AJAX数据源的精准博客爬虫设计
爬虫·ajax·json·spiderflow
vx_biyesheji00013 小时前
计算机毕业设计:Python汽车数据分析系统 Django框架 requests爬虫 可视化 车辆 数据分析 大数据 机器学习(建议收藏)✅
爬虫·python·算法·机器学习·django·汽车·课程设计
小白学大数据4 小时前
效率翻倍:Scrapy-Redis 分布式全站爬虫并发优化进阶
redis·分布式·爬虫·scrapy
tang7778915 小时前
小红书平台用什么代理 IP 比较好?2026年3月实测数据 + 选型推荐
网络·爬虫·python·网络协议·tcp/ip·数据挖掘·ip
进击的雷神20 小时前
突破POST分页与IP封锁:基于表单提交和代理转发的新闻爬虫设计
爬虫·网络协议·tcp/ip
小邓睡不饱耶1 天前
东方财富股吧话题爬虫实现:从接口请求到Excel数据落地
爬虫·excel
进击的雷神1 天前
攻克动态列表页结构:基于ID与URL双字段协同提取的精准爬虫设计
爬虫·spiderflow
进击的雷神2 天前
分页参数推导、嵌套数据提取、多语言地址判断、去重插入检查——韩国Koplas展爬虫四大技术难关攻克纪实
爬虫·python
xxjj998a2 天前
Python 爬虫实战案例 - 获取社交平台事件热度并进行影响分析
开发语言·爬虫·python
三三有猫2 天前
爬虫代理基础知识:为什么用与怎么用
开发语言·c++·爬虫