Python入门第5篇(爬虫相关)

目录

爬虫初步说明

html相关基础

urllib之读取网页内容

http相关基础

requests之webapi调用


爬虫初步说明

爬虫,一句话来说,即模拟浏览器爬取一些内容,如自动下载音乐、电影、图片这种的

具体可能是直接访问网页进行解析,也可能是调用webapi直接获取数据,后者应该更多一些

html相关基础

html、js、css构成了html的三要素

urllib之读取网页内容

python 复制代码
from urllib.request import urlopen

url='http://www.baidu.com'
con=urlopen(url)
cons=con.read()

with open('./output.html','wb') as f:
    f.write(cons)

print(cons)

这里是打开了百度首页,然后写入到一个本地html文件,注意这里使用wb方式写入(字节流)

注意:需要通过pip安装urllib

http相关基础

三次握手

四次挥手

http方法:get、post

requests之webapi调用

python 复制代码
import requests
import json

def fanyi(inputStr):
    txt=input("请输入要翻译的内容:")
    url="https://fanyi.baidu.com/sug"
    data={
        "kw":txt
    }
    result=requests.post(url,data=data)
    # print(result.text)
    # printInfo(result.json())
    printInfo(result.json()["errno"])
    # printInfo(type(result.json()))
    print("翻译结果:")
    for i in range(len(result.json()["data"])):
        printInfo(str(i+1)+":"+result.json()["data"][i]["v"])

if __name__=="__main__":
    fanyi("我的翻译机器人")
    pass

这里一百度翻译接口为例,通过输入待翻译内容,然后调用翻译接口,将接口返回结果进行解析,输出翻译结果

注意:需要通过pip安装requests

主要用到的就是get、post

这里需要注意header、body这些参数,要根据实际网页请求的内容来,也可以先用postman、apipost测试

再一个需要注意的是,对于返回结果的解析,需要先清楚其类型,才可以更好的解析,如使用type()先打印下类型,就知道下一步要怎么解析了

相关推荐
pixcarp2 分钟前
Golang web工作原理详解
开发语言·后端·学习·http·golang·web
程序员:钧念2 分钟前
【sh脚本与Python脚本的区别】
开发语言·人工智能·python·机器学习·语言模型·自然语言处理·transformer
Pth_you8 分钟前
Python权限问题终极解决方案
开发语言·python
Ulyanov9 分钟前
PyVista战场可视化实战(三):雷达与目标轨迹可视化
开发语言·人工智能·python·机器学习·系统架构·tkinter·gui开发
张张努力变强9 分钟前
C++ 类和对象(二):实例化、this指针、构造函数、析构函数详解
开发语言·c++
gaize121310 分钟前
云计算服务和云解决方案-阿里云
开发语言·php
njsgcs16 分钟前
python qt做ai透明对话框
人工智能·python·qt
花间相见18 分钟前
【JAVA开发】—— Git常用操作
java·开发语言·git
坏柠18 分钟前
ESP32-S3 的 I²C:从“能连设备”到“工程上用得顺”
c语言·开发语言
翼龙云_cloud18 分钟前
阿里云渠道商:弹性伸缩爬虫实战 智能应对流量高峰的 3 步方案
爬虫·阿里云·云计算