基本内容
网站 = 后端(HTTP服务器)+ 前端(浏览器),而后端和前端都需要遵循HTTP协议
HTTP属于超文本传输协议,存在于应用层
文本:一般能在utf8或者gbk上找到的合法字符串
超文本:不仅仅是字符串,还可以携带一些图片或者其他特殊格式
富文本:word
当前的HTTP协议版本:HTTP3.0,基于UDP实现了一系列复杂的机制,可以确保可靠性也不怕大数据包
网页:通过HTML(一种编程语言)来构建的,HTML描述网页里面有什么,而C和Java这类语言表达的是逻辑,描述你要做什么
HTTP协议的交互过程:典型的一问一答
HTTP报文协议格式
抓包工具:本质上是一个代理程序,能够获取网络上传输的数据并显示出来,给程序员提供一些参考
常见的抓包工具:
wireshark:高大全,可以抓各种协议(TCP,IP,UDP,以太网之类的)的数据包
fiddler:专注于HTTP的抓包
fiddler使用
下载好之后进行简单的设置,点击Tools,选择Options
勾完选OK
第三步这里会弹出一个窗口让你安装证书 ,选是就对了
当前网络上大部分请求都是基于HTTPS(在HTTP上进行了加密)
除此之外需要关闭电脑上的代理(也就是翻墙)程序,因为fiddler也是一个代理程序,代理之间会有冲突
代理是啥?
代理是一个程序,而不是一个设备(区分路由器),工作在应用层的,负责转发数据。
用来翻墙的代理,本质上是通过一个可以被访问的境外服务器来部署代理服务器的
代理分为两种
正向代理:客户端的代言人(代替客户端的工作)
反向代理:服务器的代言人
只要系统上有任何一个程序(不一定是浏览器)使用HTTP/HTTPS,就能被fiddler找到
把原来的记录删除,用搜狗搜索fiddler
实际上,打开一个网站,其实浏览器和服务器之间进行的HTTP交互不止有一次,通常会有很多次
第一次交互拿的是这个页面的HTML,HTML还会依赖其他的css和js,图片等。HTML被浏览器加载之后又会触发其他http请求,获取到css,js等。执行js又会触发更多http请求,又有js和css
这些灰色怎么回事呢?
由于浏览器和服务器之间要进行多次网络交互,整体的过程是比较低效的为了提升效率,就会把一些固定不变的内容在浏览器本地的机器硬盘上进行缓存.比如css,图片,js这些很少发生改变的东东
保存到硬盘上之后,后续再请求就可以直接从硬盘上读取数据,减少了网络交互的开销
不想读到这些灰色的咋办,按ctrl + F5强制刷新就可以不读取缓存,直接读服务器的数据
众多抓包中,标识蓝色的表示返回一个HTML,往往是一个网站的入口
选择这条信息并双击,在右上角显示的是请求的明细
右下角显示的是响应的明细
我们一般在标签栏(右上角右下角各有一个)中选择Raw查看http请求的原始数据
这里响应数据为什么会出现乱码呢?
其实是响应的数据被压缩了。网络传输中,带宽是一个比较贵的硬件资源,网络为了节省带宽,就把响应数据进行压缩
点击这条就可以解压缩了,解压缩需要消耗时间和CPU的
解压缩后的内容其实就是网站网页的HTML
HTTP请求
有四个部分
1.首行
GET表示方法,query = 后面的内容是url,HTTP/1.1是版本号,三个部分分别用空格分割
2.请求头(header)
从第二行到末尾都是请求头,类似于TCP/IP报头,存储了重要的信息
这里的请求头是采用文本的形式组织的,里面包含很多键值对,每个键值对占一行,键和值之间用 :+ 空格分割
3.空行
请求头下面有一个空行,这个空行表示结束
4.正文(body)
http的载荷部分,有的http有,有的没有
HTTP响应
1.首行
HTTP/1.1表示版本号,200表示状态码,OK表示状态码描述
2.响应头
键值对
3.空行
响应头结束标记
4.响应正文(body)
HTTP请求(详细)
URL
URL描述一个网络上的资源位置,是唯一资源定位符
区分:URI是唯一资源标识符,URI的标识范围比URL更广一些
fiddler - 搜狗搜索 (sogou.com)https://www.sogou.com/web?query=fiddler&_asf=www.sogou.com&_ast=&w=01019900&p=40040100&ie=utf8&from=index-nologin&s_from=index&sut=3086&sst0=1711696230938&lkt=0%2C0%2C0&sugsuv=1711696204032111&sugtime=1711696230938这种就是一个URL,https是协议名称;www.sougou.com是域名;web后面是带有层次结构的路径
一个URL的完整结构
服务器地址也可以用IP地址来表示
服务器端口号:http 用80,https 用443
这个URL如何查找网络上资源位置?
1)通过IP地址找到服务器的位置
2)通过端口号找到具体的程序
3)通过路径知道访问的是哪个资源
查询字符串:键值对格式,使用&(and或者叫做取地址符号)分割键值对,使用 = 分割键和值
比如下面这个网址
片段标识符:标识当前页面的某个部分,通过不同的片段标识符可以实现页面内的跳转
URL encode
在普通的URL中,本身某些符号有特殊的含义,比如 / ? : @等符号
而query string中是自定义的键值对,这样就会出现自定义的和URL本身的符号相同的情况,会导致服务器/浏览器解析失败
解决方法:对上述符号进行转义
比如我们在网页上搜索C++
这里就有一个转义的过程,把 + 号的ASCII码(2B)拿出来,使用十六进制表示,并且在前面加上%
搜索中文的话会采用utf8表示这个中文,每两位加上一个%
方法
最常见的方法
GET:从服务器拿一个东西过来(读操作)
POST:往服务器放一个东西过去(写操作)
两个典型的使用POST的场景:登录和上传
经典面试题:GET和POST有什么区别
GET和POST在本质上没有区别,使用GET的场景可以替换成POST,使用POST的场景也能替换成GET
从使用情况上说,GET和POST是有区别的
- GET会把需要给服务器的补充信息放到query string中,POST会把这些信息放到body中
2.语义上的区别,标准文档中,GET的语义是用来获取数据,POST的语义是给服务器传输数据
3.幂等性。标准文档中,建议GET实现成幂等的,POST则无要求
幂等性?每次输入的内容一定,输出的结果也是一定的,称为幂等
4.GET请求可以被浏览器收藏夹收藏,POST不可以
POST的例子:拿老师的例子举例
username后面跟的是json格式的数据
password后面跟的是base64编码(使用四个字节对原始数据中的三个字节进行重新编码,为了能够去掉原始数据中二进制的内容。识别方法:看后面出现的两个=号)
报头
Host:
表示服务器主机的地址和端口
Content-Length:
表示body中的数据长度
通过这个长度处理粘包问题(HTTP基于TCP,也需要在读包时明确包与包之间的界限),如果没有body的请求/响应,就直接使用空行作为分割符,如果有body,空行就不是结束标记了。从空行开始读取body,而要读多长就取决于Content-Length
Content-Type:
表示请求的body中的数据格式
body传输格式(请求中):
1)application/json(body)
2)application/x-www-form-urlencoded(称为form表单。通过HTML中的form标签构造出的一种格式。这个格式认为把query string放到body里了)
3)multipart/form-data(上传文件使用)
(响应中):
1)text/plain 纯文本
2)text/html 返回html
3)application/JavaScript 返回js
4)text/css
5)image/png/jpg
User Agent(UA):
描述了用户使用啥样的设备上网
操作系统信息
浏览器信息
例子:一个程序员设计了一个网站,是否使用新特性?如果使用了,老的设备不一定能打得开。不使用又没有竞争力
此时借助UA就能解决上面的问题。如果用户用的是很老的设备,返回的页面就不包含新特性,确保这个页面能够正确访问出来;如果用户用的是新设备,返回的页面就包含新特性,保证用户体验感
如今的UA还可以判断上网的设备是PC还是移动端(手机,平板等)
Referer
表示当前这个页面是从哪个页面跳转来的
referer是否能被篡改呢?是可以的,在10年前的运营商
- 有动机。他们有属于自己的系统,可以把普通互联网公司系统的referer改成运营商系统的referer就行了
2.有能力。运营商提供通信设施,但是他们在路由器/交换机上部署程序,让程序解析HTTP数据,然后把referer改成自己的
解决这种问题的方法:HTTPS S指的是SSL -- 网络中用于加密的协议
加密会把header和body都进行加密,让网络上传输的是密文。运营商如果想要修改,就得先破解,就算能解密也篡改不了,因为一旦修改就能被用户的浏览器感知到
Cookie
本质上是浏览器本地化持久存储数据的机制
系统提供了api操作文件,浏览器作为程序是可以调用这些api来操作本地文件的。但是对于浏览器上运行的网页,浏览器禁止网页直接通过api操作本地文件。
与此同时浏览器给网页提供了api,能够有限度地存储数据,而不能随意访问文件系统
Cookie就是这种存储机制
HTTP请求中的Cookie字段就是把本地存储的Cookie信息发送到服务器这边
响应中会有一个Set-Cookie字段,就是服务器告诉浏览器你要在本地保存哪些信息
Cookie几个结论:
1.Cookie从哪里来?服务器返回给浏览器的,通常是首次访问/登录之后
2.Cookie到哪里去?Cookie会存储在浏览器本地主机的硬盘上,后续每次访问浏览器都会带上Cookie,不同的客户端保存的Cookie是不同的,即使是同一个主机,使用不同的浏览器,Cookie也大概率是不同的
3.Cookie中存什么?键值对格式的数据,由程序员自定义
4.Cookie在浏览器怎么组织?在硬盘内保存,按照不同的域名为维度分别存储。
5.Cookie的用途是什么?用来在客户端保存数据,最重要的就是保存用户的身份标识,服务器可以通过标识区分标识来区分用户。
总结:一个HTTP请求中,有以下部分可以携带程序员自定义的数据
1.query string
2.Cookie
3.body
4.url的path
HTTP响应(详细)
状态码
用于响应,表示响应的结果如何
常见的:
1)200 OK 表示成功
2)404 Not Found 表示资源没找到
3)403 Forbidden 请求的资源没有权限访问
4)405 Method Not Found 用户的服务器只支持GET请求,但是该用户发了个POST请求就会出现这样的问题
5)500 Internal Server Error 服务器内部错误 --> 服务器挂了
6)504 Gateway Timeout 访问服务器超时(网挂了或者服务器挂了)
7)302 Move temporarily 重定向(临时的)
明明访问的是网站A,但是A让你去找网站B,浏览器就会自动去访问B
重定向的意义:比如有一个域名要更改名字了,但是之前该网站的老用户还在收藏夹保存着老域名,为了不让老用户找不到新域名的网站,就可以把访问老域名的请求重定向到新域名上(类似手机的呼叫转义)
如何构造HTTP请求
通过代码构造
对于java来说,使用ServerSocket/Socket(TCP的socet api 来编程)
本质上就是基于Socket写一个TCP的客户端,然后往socket中按照HTTP协议的格式写入字符串即可
通过第三方工具构造
比如PostMan
每个标签页就是一个构造HTTP请求的配置页面
发送请求按钮
HTTPS
HTTP是明文传输的(不安全)
运营商劫持案例
我要下载天天动听音乐播放器,但是点击下载后却帮我下载了QQ浏览器
所以解决安全问题的核心就是加密
密码学
密码学中几个重要的概念:
明文:要传输的真实数据,要表达的实际意思
密文:针对明文加密之后得到的结果
明文 => 密文:加密
密文 => 明文:解密
加密和解密的过程需要一个道具,称为密钥
对称加密:加密和解密都使用同一个密钥
非对称加密:加密和解密使用两个不同的密钥,这两个密钥k1和k2是成对的,一个用来加密另一个就是用来解密的
HTTP工作过程
HTTPS是在HTTP的基础上引入一个加密层SSL,针对header和body进行加密
1)引入对称加密
-
对称加密的时候,客户端和服务器都得使用同一个密钥
-
不同的客户端得使用不同的密钥
这就意味着,每个客户端连接到服务器的时候,都需要自己生成一个随机的密钥,并且将这个密钥告诉给服务器。问题来了:一旦黑客拿到这个密钥,加密操作将毫无意义
所以对称加密行不通,接下来得考虑将密钥也进行密文传输
- 使用非对称加密
对对称密钥进行加密,确保对称密钥的安全性(注意:非对称密钥的加密解密消耗的CPU资源很高,所以仅对对称密钥进行加密,而header和body这些还得靠对称密钥来加密)
让服务器持有私钥(只有服务器知道),客户端持有公钥(黑客也知道)对生成的对称密钥进行加密。黑客手里虽然有密钥,但没有私钥也无法对这个数据进行解密
纵使这样,黑客也有办法获取到对称密钥key的,具体采用中间人攻击的方法
中间人攻击
服务器可以创建一对公钥和私钥,那黑客也可以按照同样的方式自己创建出一堆公钥和私钥,冒充自己是服务器
解决中间人攻击
关键:客户端拿到公钥的时候,能验证这个公钥是否是真的而不是黑客伪造的
具体做法:要求服务器提供一个证书。证书是一个结构化的数据,里面包含很多属性,最终以字符串的形式提供。证书会包含一些重要的信息,比如服务器的主域名,公钥,证书有效期等等
证书就是搭建服务器的人从第三方认证机构进行申请的
证书的签名:本质上是一个经过加密的校验和(字符串)
如果两份数据内容一样,其各自的校验和一定相同,反之一定不相同
客户端拿到证书后:
-
按照同样的校验和算法,把证书的其他字段重新算一遍,得到校验和1;
-
使用系统内置的公正机构的公钥对证书中的签名进行解密,得到检验和2;
如果校验和1和2是一致的,说明证书没有被修改
黑客能不能自己也去公正机构申请证书,然后把自己的证书替换掉服务器的证书呢?
不行!因为证书里面还包含了服务器的域名,而服务器的域名是唯一的,黑客伪造的证书很容易一眼假。
一个经典面试题:谈谈 HTTPS 的工作过程要谈的东西从引入对称加密开始一直到最后证书验证过程