Nginx到底是什么,他能干什么?

目录

Ngnix是什么,它是用来做什么的呢?

一。Nginx简介

二,为什么要用Nginx呢?

二。Nginx应用

1.HTTP代理和反向代理

2.负载均衡


Ngnix是什么,它是用来做什么的呢?

一。Nginx简介

Nginx是enginex的简写,是一款很优秀的开源的高性能HTTP和反向代理服务器,由于它是用C语言写的,所以速度非常快,性能非常优秀,它主要功能就是反向代理,负载均衡,配置SSL证书,防盗链,解决跨域问题,缓存,限流,动静资源分离等等

Nginx是一款轻量级的,高性能的代理Web服务器,作为一个很强大的高性能Web和反向代理服务器它具有很多优秀的特性:Nginx更轻巧,处理的并发数更大(Nginx的并发性在同类型的服务其中表现很好)中国用户使用的很多,比如 百度,京东,网易,腾讯,淘宝等互联网大厂,对HTTP并发连接的高处理能力(单台服务器通常可以处理三万到六万个并发请求),单个链接占用的内存小,通常较多用于处理静态页面和反向代理服务。

Nginx和Apache都采用模范化的结构设计,在连接高并发的情况下,Nginx是Apache服务不错的代理品:Apache的下载包很大,而Nginx的下载包很小,现在的版本大概只有几兆的大小,安装非常方便。能支持最大60000个并发连接数,这是他无与伦比的优势。

上面介绍了Nginx是一台Web服务器,实际上,它并不是一台真正意义上的物理服务器,并不是主观真实存在的实体,它是运行在某台服务器(电脑)上的软件。

那为什么还说它是一台Web服务器呢,???

我们先来理解一下什么事网关,大家都知道,从一个房间进入另一个房间内,必须经过一个门,就像经过一个"关口",那么从一个网络发送一个消息到另一个网络,也必须经过一个关口,这个关口就可以说是网关。这个关口并不是摆在那里那么简单,关口可以自行决定允不允许让你的消息通过,或者决定是否替你转发和接收消息,把消息分发给其他人,或者帮你的消息添加和需处理一些消息,或者替你回答消息等等功能。

而Nginx就相当于这个网关,转发和接收消息就相当于反向代理,把消息分给其他人就相当于负载均衡。当我们的服务器(电脑)上安装了Nginx这个软件,通过一些简单的配置并运行这个软件,我们在服务器上运行的项目(例如java程序)在接收HTTP请求的时候,这个请求就会被Nginx这个网关先拦截,经过一些上述的处理之后再交给Java程序,此时Nginx就充当了一个网关。因为外网用户的所有请求都会先经过Nginx,所以对于外网的用户来说,他们的请求都是发送给Nginx的,再由Nginx发送给java程序处理后再发还给用户,那么从用户的角度来看,Nginx就相当于一台服务器在接收和回复用户发送的消息,所以也可以理解为Nginx是一台Web服务器。

二,为什么要用Nginx呢?

Nginx跨平台,配置简单。我们可以在linux和windows系统上都开启Nginx服务,配置也非常简单,

在linux上,我们通常只需要修改三四行代码,就可以完成项目的配置,当后端程序重构或者重新部署,例如Java项目换成go项目,也不需要修改Nginx。

Nginx是由C语言写的,速度非常快,性能很优越。目前公认的性能最高的后端语言就是C和C++,而Nginx就是由C语言写的和编译的,其单机开发量非常高,可以达到5w+,而一般的后端Java程序并没有这么高的并发量,所以一般都会选择Nginx当网关放在Java程序之前,提高系统的整体性能。

动静资源分离,一般公司的前后端一般静态资源都会放到Nginx分离项目,用户想获取前端静态资源文件,都得先经过后端Java程序的接口再获取服务器上的静态资源文件,这样的效率并不是很高,而且会占用正常程序接口连接数量,这时候Nginx的动静资源分离功能就提供了很好的解决方法,一般的静态资源文件都会放到Nginx服务器中。当Nginx接收到了获取静态资源的请求,就直接在Nginx服务器中把放进去的静态资源返回了,而不用真正到达后端接口,这个效率是非常高的,比正常的访问速度会快一倍左右。

在并发量较大的项目中,后端往往会开启多个相同的Java服务,来缓解单服务的压力,我们知道,每个Java服务程序都会占用一个端口,那前端在后端接口的时候,怎么知道选择哪个接口呢?这个时候就可以在所有的Java程序前放置一个Nginx程序,所有的请求都会经过Nginx,由Nginx决定分发到哪个端口程序上,,虽然后端有很多个Java程序,但对于前端来说,是无感知的,就好像后台只有一个项目再跑。

二。Nginx应用

1.HTTP代理和反向代理

正向代理有点像NAT网络结构,用户通过网关请求访问网站,网关服务器负责和外网服务器对接请求访问并返回结果

而反向代理则是,用代理服务器来接受客户端的访问请求,然后服务器将请求有策略的转发给正在实际工作中的业务服务器,并将从业务服务器的处理的结果,返回给客户端。

2.负载均衡

负载均衡建立在现有的网络结构之上,他提供了一种廉价有效透明的方法扩展网络设备和服务器的宽带,增加吞吐量,加强网络数据的处理能力,提高网络的灵活性和可用性

它利用一些反向代理功能加算法策略达到我们想要访问的目的

负载均衡的策略主要有:轮询,加权轮询,IP hash

轮询:

假如有三台服务器和三台客户端,第一次访问时,第一个服务器接受请求;第二次访问时,第二台服务器接受请求,第三次访问时,第三台服务器接受请求。。。。以此类推,按次序分配。

加权轮询:

对接受的请求做一个加权分配,配置高的服务器承担的请求多一点,配置低的接受的请求少一点。假如第二台服务器是第一台服务器的两倍,单位时间里,可以让第二台服务器执行两次,第一台执行一次

IP hash:

是对客户端请求的ip进行hash散列算法操作,然后根据hash结果将同一客户端的ip请求分发给同一台服务器进行处理,可以解决session不共享的问题

相关推荐
Fcy6481 小时前
Linux下 进程(一)(冯诺依曼体系、操作系统、进程基本概念与基本操作)
linux·运维·服务器·进程
袁袁袁袁满1 小时前
Linux怎么查看最新下载的文件
linux·运维·服务器
代码游侠1 小时前
学习笔记——设备树基础
linux·运维·开发语言·单片机·算法
Harvey9032 小时前
通过 Helm 部署 Nginx 应用的完整标准化步骤
linux·运维·nginx·k8s
珠海西格电力科技3 小时前
微电网能量平衡理论的实现条件在不同场景下有哪些差异?
运维·服务器·网络·人工智能·云计算·智慧城市
释怀不想释怀3 小时前
Linux环境变量
linux·运维·服务器
zzzsde3 小时前
【Linux】进程(4):进程优先级&&调度队列
linux·运维·服务器
聆风吟º5 小时前
CANN开源项目实战指南:使用oam-tools构建自动化故障诊断与运维可观测性体系
运维·开源·自动化·cann
NPE~5 小时前
自动化工具Drissonpage 保姆级教程(含xpath语法)
运维·后端·爬虫·自动化·网络爬虫·xpath·浏览器自动化
神梦流5 小时前
GE 引擎的内存优化终局:静态生命周期分析指导下的内存分配与复用策略
linux·运维·服务器