nginx 因为它的稳定性、丰富的模块库、灵活的配置和较低的资源消耗而闻名 。目前应该是几乎所有项目建设必备。今天通过这篇攻略让你快速通关 nginx。
图片来自 pexels
nginx 简介
nginx 是一个免费、开源、高性能、轻量级的 http 和反向代理服务器,也是一个电子邮件(imap/pop3)代理服务器,其特点是占有内存少,并发能力强。
nginx 由内核和一系列模块组成,内核提供 web 服务的基本功能,如启用网络协议,创建运行环境,接收和分配客户端请求,处理模块之间的交互。
nginx 的各种功能和操作都由模块来实现。nginx 的模块从结构上分为:
核心模块:http 模块、event 模块和 mail 模块。基础模块:http access 模块、http fastcgi 模块、http proxy 模块和 http rewrite 模块。第三方模块:http upstream request hash 模块、notice 模块和 http access key 模块及用户自己开发的模块。这样的设计使 nginx 方便开发和扩展,也正因此才使得 nginx 功能如此强大。
nginx 的模块默认编译进 nginx 中,如果需要增加或删除模块英文名言警句,需要重新编译 nginx,这一点不如 apache 的动态加载模块方便。
如果有需要动态加载模块,可以使用由淘宝网发起的 web 服务器 tengine,在 nginx 的基础上增加了很多高级特性,完全兼容 nginx,已被国内很多网站采用。
nginx 有很多扩展版本:
开源版 nginx.org商业版 nginx plus淘宝网发起的 web 服务器 tengine基于 nginx 和 lua 的 web 平台 openrestynginx 作为 web 服务器
web 服务器也称为 www(world wide web)服务器,主要功能是提供网上信息浏览服务,常常以 b/s(browr/rver)方式提供服务:
应用层使用 http 协议。html 文档格式。浏览器统一资源定位器(url)。nginx 可以作为静态页面的 web 服务器,同时还支持 cgi 协议的动态语言,比如 perl、php 等,但是不支持 java。
java 程序一般都通过与 tomcat 配合完成。作为一名 java 程序员,肯定要理解下 nginx 和 tomcat 的区别了。
nginx、apache 和 tomcat:
nginx:由俄罗斯程序员 igor sysoev 所开发的轻量级、高并发 http 服务器。apache http rver project:一个 apache 基金会下的 http 服务项目,和 nginx 功能类似。apache tomcat:是 apache 基金会下的另外一个项目,是一个 application rver。更准确的说是一个 rvlet 应用容器,与 apache http rver 和 nginx 相比,tomcat 能够动态的生成资源并返回到客户端。
apache http rver 和 nginx 本身不支持生成动态页面,但它们可以通过其他模块来支持(例如通过 shell、php、python 脚本程序来动态生成内容)。
一个 http rver 关心的是 http 协议层面的传输和访问控制,所以在 apache/nginx 上你可以看到代理、负载均衡等功能。
客户端通过 http rver 访问服务器上存储的资源(html 文件、图片文件等等)。
通过 cgi 技术,也可以将处理过的内容通过 http rver 分发,但是一个 http rver 始终只是把服务器上的文件如实的通过 http 协议传输给客户端。
而应用服务器,则是一个应用执行的容器。它首先需要支持开发语言的运行(对于 tomcat 来说,就是 java),保证应用能够在应用服务器上正常运行。
其次,需要支持应用相关的规范,例如类库、安全方面的特性。对于 tomcat 来说,就是需要提供 jsp/vlet 运行需要的标准类库、interface 等。
为了方便,应用服务器往往也会集成 http rver 的功能,但是不如专业的 http rver 那么强大。
所以应用服务器往往是运行在 http rver 的背后,执行应用,将动态的内容转化为静态的内容之后,通过 http rver 分发到客户端。
正向代理
正向代理:如果把局域网外的 internet 想象成一个巨大的资源库,则局域网中的客户端要访问 internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。
正向代理“代理”的是客户端。比如你想去 google 看个“动作片”,可国内不允许呀,就需要找翻墙代理,这个就是所谓的“正向代理”。
反向代理与负载均衡
反向代理正好与正向代理相反,反向代理是指以代理服务器来接收 internet 上的连接请求,然后将请求转发到内部网络上的服务器,并将服务器上得到的结果返回给客户端。
此时代理服务器对外表现就是一个服务器,客户端对代理是无感知的。反向代理“代理”的是服务端。
再比如,你想本本分分的在“优酷”上看个“爱情片”,youku.com 会把你的请求分发到存放片片的那台机器上,这个就是所谓的“反向代理”。
为什么使用反向代理,原因如下:
保护和隐藏原始资源服务器加密和 ssl 加速通过缓存静态资源,加速 web 请求实现负载均衡负载均衡:todo: 留一个负载均衡详细介绍传送门。
地址重定向:nginx 的 rewrite 主要的功能就是实现 url 重写,比如输入 360.com 跳转到了 360.cn,baidu.cn 跳转到了 baidu.com。
动静分离
为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度,降低原来单个服务器的压力。
这里指的就是让动态程序(java、php)去访问应用服务器,让缓存、图片、js、css 等去访问 nginx。
nginx 安装
①下载nginx:
wgethttp://nginx.org/download/nginx-1.16.1.tar.gz
②安装需要编译的插件:
用于编译 c、c++ 代码的 gcc。用 c 语言编写的正则表达式函数库 pcre(使用 rewrite 模块)。用于数据压缩的函式库的 zlib。安全套接字层密码库 openssl(启用 ssl 支持)。yuminstallgccc++yuminstall-ypcrepcre-develyuminstall-yzlibzlib-develyuminstall-yopensslopenssl-devel
③解压、配置(nginx 支持各种配置选项 )、编译、安装 nginx:
tar-zxvfnginx-1.15.tar.gzcdnginx-1.16.1cdnginx-1.16.1./configuremake&&sudomakeinstall
④启动、重启、关闭:
cd/usr/local/nginx/cdsbin./nginx#关闭命令./nginx-sstop#重启,热部署./nginx-sreload#修改配置文件后也别嘚瑟,反正我会动不动就写错,检查修改的nginx.conf配置是否正确./nginx-t
⑤验证(浏览器输入 ip):
配置文件
nginx.conf 配置文件主要分为三部分:
全局块events 块https 块nginx 配置语法:
配置文件由指令和指令块构成每条指令以分号(;)结尾,指令和参数间以空格符分隔指令块以大括号{}将多条指令组织在一起include 语句允许组合多个配置文件以提高可维护性使用 # 添加注释使用 $ 定义变量部分指令的参数支持正则表达式全局块
全局配置部分用来配置对整个 rver 都有效的参数。主要会设置一些影响 nginx 服务器整体运行的配置指令,包括配置运行 nginx 服务器的用户(组)、允许生成的 worker process 数,进程 pid 存放路径、日志存放路径和类型以及配置文件的引入等。
示例如下:
urnobody;worker_process4;error_log/data/nginx/logs/error.lognotice;
events 块
events 块涉及的指令主要影响 nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process 下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word process 可以同时支持的最大连接数等。
events{#每个workprocess支持的最大连接数为1024.worker_connections1024;}
http 块
这算是 nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。 需要注意的是:http 块也可以包括 http 全局块、rver 块。
①http 全局块
http 全局块配置的指令包括文件引入、mime-type 定义、日志自定义、连接超时时间、单链接请求数上限等。
http{includemime.types;default_typeapplication/octet-stream;ndfileon;keepalive_timeout65;
②rver 块
这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。
每个 http 块可以包括多个 rver 块,而每个 rver 块就相当于一个虚拟主机。
而每个 rver 块也分为全局 rver 块,以及可以同时包含多个 locaton 块。
全局 rver 块:也被叫做“虚拟服务器”部分,它描述的是一组根据不同rver_name指令逻辑分割的资源,这些虚拟服务器响应 http 请求,因此都包含在 http 部分。
最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 ip 配置。
rver{listen80;#rver_name也支持通配符,*.example.com、www.example.*、.example.comrver_namelocalhost;#chartkoi8-r;#access_loglogs/host.access.logmain;
location 块:一个 rver 块可以配置多个 location 块。
这块的主要作用是基于 nginx 服务器接收到的请求字符串(例如 rver_name/uri-string),对虚拟主机名称 (也可以是 ip 别名)之外的字符串(例如前面的 /uri-string)进行匹配,对特定的请求进行处理。
地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行。
location 指令说明:该指令用于匹配 url。
语法如下:
location[=|~|~*|^~]uri{}
= :该修饰符使用精确匹配并且终止搜索。~:该修饰符使用区分大小写的正则表达式匹配。~*:该修饰符使用不区分大小写的正则表达式匹配。^~:用于不含正则表达式的 uri 前,要求 nginx 服务器找到标识 uri 和请求字符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location 块中的正则 uri 和请求字符串做匹配。?>tip 注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~* 标识。
当一个请求进入时,uri 将会被检测匹配一个最佳的 location:
没有正则表达式的 location 被作为最佳的匹配,独立于含有正则表达式的 location 顺序。在配置文件中按照查找顺序进行正则表达式匹配。在查找到第一个正则表达式匹配之后结束查找。由这个最佳的 location 提供请求处理。location/{roothtml;indexindex.htmlindex.htm;}#error_page404/404.html;#redirectrvererrorpagestothestaticpage/50x.html#error_page500502503504/50x.html;location=/50x.html{roothtml;}location/{#try_files指令将会按照给定的参数顺序进行匹配尝试try_files$uri$uri//index.html;}
nginx.conf 详细配置如下:
#定义nginx运行的用户和用户论文的创新点组urwwwwww;#nginx进程数,通常设置成和cpu的数量相等worker_process4;#全局错误日志定义类型,[debug|info|notice|warn|error|crit]#error_log/data/nginx/logs/error.log;#error_log/data/nginx/logs/error.lognotice;#日志文件存放路径access_logpath[format[buffer=size|off]]access_log/data/nginx/logs/lazyegg.com/web/access.logcombinedio;#进程pid文件#pidlogs/nginx.pid;#指定进程可以打开的最大描述符:数目#工作模式与连接数上限##这个指令是指当一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(ulimit-n)与nginx进程数相除,但是nginx分配请求并不是那么均匀,所以最好与ulimit-n的值保持一致。#这是因为nginx调度时分配请求到进程并不是那么的均衡,所以假如填写10240,总并发量达到3-4万时就有进程可能超过10240了,这时会返回502错误。worker_rlimit_nofile65535;#################################events###############################events{#参考事件模型,u[kqueue|rtsig|epoll|/dev/poll|lect|poll];epoll模型uepoll#单个进程最大连接数(最大连接数=连接数+进程数)worker_connections1024;#keepalive超时时间keepalive_timeout60;#客户端请求头部的缓冲区大小。client_header_buffer_size4k;#这个将为打开文件指定缓存,默认是没有启用的,max指定缓存数量,建议和打开文件数一致,inactive是指经过多长时间文件没被请求后删除缓存。open_file_cachemax=65535inactive=60s;#这个是指多长时间检查一次缓存的有效信息。open_file_cache_valid80s;#open_file_cache指令中的inactive参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的,如上例,如果有一个文件在inactive时间内一次没被使用,它将被移除。open_file_cache_min_us1;#语法:open_file_cache_errorson|off默认值:open_file_cache_errorsoff使用字段:http,rver,location这个指令指定是否在搜索一个文件是记录cache错误.open_file_cache_errorson;}##############################http###################################设定http服务器,利用它的反向代理功能提供负载均衡支持http{#文件扩展名与文件类型映射表includemime.types;#默认文件类型default_typeapplication/octet-stream;#默认编码chartutf-8;#服务器名字的hash表大小rver_names_hash_bucket_size128;#客户端请求头部的缓冲区大小。client_header_buffer_size32k;#客户请求头缓冲大小。large_client_header_buffers464k;#允许客户端请求的最大单个文件字节数client_max_body_size8m;#开启高效文件传输模式,ndfile指令指定nginx是否调用ndfile函数来输出文件,对于普通应用设为on,如果用来进行下载等应用磁盘io重负载应用,可设置为off,以平衡磁盘与网络i/o处理速度,降低系统的负载。注意:如果图片显示不正常把这个改成off。ndfileon;#开启目录列表访问,适合下载服务器,默认关闭。autoindexon;#此选项允许或禁止使用socke的tcp_cork的选项,此选项仅在使用ndfile的时候使用tcp_nopushon;tcp_nodelayon;#长连接超时时间,单位是秒keepalive_timeout120;#fastcgi相关参数是为了改善网站的性能:减少资源占用,提高访问速度。下面参数看字面意思都能理解。fastcgi_connect_timeout300;fastcgi_nd_timeout300;fastcgi_read_timeout300;fastcgi_buffer_size64k;fastcgi_buffers464k;fastcgi_busy_buffers_size128k;fastcgi_temp_file_write_size128k;#gzip模块设置gzipon;#开启gzip压缩输出gzip_min_length1k;#最小压缩文件大小gzip_buffers416k;#压缩缓冲区gzip_http_version1.0;#压缩版本(默认1.1,前端如果是squid2.5请使用1.0)gzip_comp_level2;#压缩等级gzip_typestext/plainapplication/x-javascripttext/cssapplication/xml;#压缩类型,默认就已经包含textml,所以下面就不用再写了,写上去也不会有问题,但是会有一个warn。gzip_varyon;#开启限制ip连接数的时候需要使用#limit_zonecrawler$binary_remote_addr10m;#负载均衡配置upstreamlazyegg.net{#upstream的负载均衡,weight是权重,可以根据机器配置定义权重。weigth参数表示权值,权值越高被分配到的几率越大。rver192.168.80.121:80weight=3;rver192.168.80.122:80weight=2;rver192.168.80.123:80weight=3;#nginx的upstream目前支持4种方式的分配#1、轮询(默认)#每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。#2、weight#指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。#例如:#upstreambakend{#rver192.168.0.14weight=10;#rver192.168.0.15weight=10;#}#2、ip_hash#每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决ssion的问题。#例如:#upstreambakend{#ip_hash;#rver192.168.0.14:88;#rver192.168.0.15:80;#}#3、fair(第三方)#按后端服务器的响应时间来分配请求,响应时间短的优先分配。#upstreambackend{#rverrver1;#rverrver2;#fair;#}#4、url_hash(第三方)#按访问url的hash结果来分配请求,使每个url幽州胡马客定向到同一个后端服务器,后端服务器为缓存时比较有效。#例:在upstream中加入hash语句,rver语句中不能写入weight等其他的参数,hash_method是使用的hash算法#upstreambackend{#rversquid1:3128;#rversquid2:3128;#hash$request_uri;#hash_methodcrc32;#}#tips:#upstreambakend{#定义负载均衡设备的ip及设备状态}{#ip_hash;#rver127.0.0.1:9090down;#rver127.0.0.1:8080weight=2;#rver127.0.0.1:6060;#rver127.0.0.1:7070backup;#}#在需要使用负载均衡的rver中增加proxy_passhttp://bakend/;#每个设备的状态设置为:#1.down表示单前的rver暂时不参与负载#2.weight为weight越大,负载的权重就越大。#3.max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误#4.fail_timeout:max_fails次失败后,暂停的时间。#5.backup:其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。#nginx支持同时设置多组的负载均衡,用来给不用的rver来使用。#client_body_in_file_only设置为on可以讲clientpost过来的数据记录到文件中用来做debug#client_body_temp_path设置记录文件的目录可以设置最多3层目录#location对url进行匹配.可以进行重定向或者进行新的代理负载均衡}#虚拟主机的配置rver{#监听端口listen80;#域名可以有多个,用空格隔开rver_namelazyegg.net;#默认入口文件名称indexindex.htmlindex.htmindex.php;root/data/www/lazyegg;#对******进行负载均衡location~.*.(php|php5)?${fastcgi_pass127.0.0.1:9000;fastcgi_indexindex.php;includefastcgi.conf;}#图片缓存时间设置location~.*.(gif|jpg|jpeg|png|bmp|swf)${expires10d;}#js和css缓存时间设置location~.*.(js|css)?${expires1h;}#日志格式设定#$remote_addr与$http_x_forwarded_for用以记录客户端的ip地址;#$remote_ur:用来记录客户端用户名称;#$time_local:用来记录访问时间与时区;#$request:用来记录请求的url与http协议;#$status:用来记录请求状态;成功是200,#$body_bytes_nt:记录发送给客户端文件主体内容大小;#$http_referer:用来记录从那个页面链接访问过来的;#$http_ur_agent:记录客户浏览器的相关信息;#通常web服务器放在反向代理的后面,这样就不能获取到客户的ip地址了,通过$remote_add拿到的ip地址是反向代理服务器的ip地址。反向代理服务器在转发请求的http头信息中,可以增加x_forwarded_for信息,用以记录原有客户端的ip地址和原来客户端的请求的服务器地址。log_formataccess'$remote_addr-$remote_ur[$time_local]"$request"''$status$body_bytes_nt"$http_referer"''"$http_ur_agent"$http_x_forwarded_for';#定义本虚拟主机的访问日志access_log/usr/local/nginx/logs/host.access.logmain;access_log/usr/local/nginx/logs/host.access.404.loglog404;#对"/connect-controller"启用反向代理location/connect-controller{proxy_passhttp://127.0.0.1:88;#请注意此处端口号不能与虚拟主机监听的端口号一样(也就是rver监听的端口)proxy_redirectoff;proxy_t_headerx-real-ip$remote_addr;#后端的web服务器可以通过x-forwarded-for获取用户真实ipproxy_t_headerx-forwarded-for$proxy_add_x_forwarded_for;#以下是一些反向代理的配置,可选。proxy_t_headerhost$host;#允许客户端请求的最大单文件字节数client_max_body_size10m;#缓冲区代理缓冲用户端请求的最大字节数,#如果把它设置为比较大的数值,例如256k,那么,无论使用firefox还是ie浏览器,来提交任意小于256k的图片,都很正常。如果注释该指令,使用默认的client_body_buffer_size设置,也就是操作系统页面大小的两倍,8k或者16k,问题就出现了。#无论使用firefox4.0还是ie8.0,提交一个比较大,200k左右的图片,都返回500internalrvererror错误client_body_buffer_size128k;#表示使nginx阻止http应答代码为400或者更高的应答。proxy_intercept_errorson;#后端服务器连接的超时时间_发起握手等候响应超时时间#nginx跟后端服务器连接超时时间(代理连接超时)proxy_connect_timeout90;#后端服务器数据回传时间(代理发送超时)#后端服务器数据回传时间_就是在规定时间之内后端服务器必须传完所有的数据proxy_nd_timeout90;#连接成功后,后端服务器响应时间(代理接收超时)#连接成功后_等候后端服务器响应时间_其实已经进入后端的排队之中等候处理(也可以说是后端服务器处理请求的时间)proxy_read_timeout90;#设置代理服务器(nginx)保存用户头信息的缓冲区大小#设置从被代理服务器读取的第一部分应答的缓冲区大小,通常情况下这部分应答中包含一个小的应答头,默认情况下这个值的大小为指令proxy_buffers中指定的一个缓冲区的大小,不过可以将其设置为更小proxy_buffer_size4k;#proxy_buffers缓冲区,网页平均在32k以下的设置#设置用于读取应答(来自被代理服务器)的缓冲区数目和大小,默认情况也为分页大小,根据操作系统的不同可能是4k或者8kproxy_buffers432k;#高负荷下缓冲大小(proxy_buffers*2)proxy_busy_buffers_size64k;#设置在写入proxy_temp_path时数据的大小,预防一个工作进程在传递文件时阻塞太长#设定缓存文件夹大小,大于这个值,将从upstream服务器传proxy_temp_file_write_size64k;}#本地动静分离反向代理配置#所有jsp的页面均交由tomcat或resin处理location~.(jsp|jspx|do)?${proxy_t_headerhost$host;proxy_t_headerx-real-ip$remote_addr;proxy_t_headerx-forwarded-for$proxy_add_x_forwarded_for;proxy_passhttp://127.0.0.1:8080;}}}
nginx 配置实例
反向代理 demo 1
实现效果:使用 nginx 反向代理,访问 test.com 直接跳转到自己的机器 127.0.0.1:8080。
①启动一个 tomcat,浏览器地址栏输入 127.0.0.1:8080。
出现如下界面:
②通过修改本地 host 文件(c:windowssystem32drivertc),添加127.0.0.1 www.12345.com 将 www.12345.com 映射到自己的机器 ip 上。
③配置完成之后,我们便可以通过 www.test.com:8080 访问到第一步出现的 tomcat 初始界面。
那么如何只需要输入 www.12345.com 便可以跳转到 tomcat 初始界面呢?便用到 nginx 的反向代理。
④修改 nginx.conf 配置文件,增加如下配置 proxy_pass:
rver{listen80;rver_namelocalhost;#chartkoi8-r;#access_loglogs/host.access.logmain;location/{proxy_passhttp://127.0.0.1:8080;}
⑤如上配置,我们监听 80 端口,访问域名为 www.12345.com,不加端口号时默认为 80 端口,故访问该域名时会跳转到 127.0.0.1:8080 路径上。
在浏览器端输入 www.12345.com 结果如下:
反向代理 demo 2
实现效果:使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中:
访问 http://127.0.0.1/java/ 直接跳转到 127.0.0.1:8080访问 http://127.0.0.1/egg/ 直接跳转到 127.0.0.1:8081①在服务器上起两个 tomcat,修改其中一个端口号为 8081。
在 tomcat/webapps/ 目录下各加两个文件夹,并随便写个 html 页面,我建的是 java/index.html 和 egg/index.html。
②修改 nginx.conf,在 http 块中添加 rve{}:
rver{listen80;rver_namelocalhost;location~/java/{proxy_passhttp://127.0.0.1:8080;}location/egg/{proxy_passhttp://127.0.0.1:8081;}}
③重启 nginx,验证效果:
nginx 配置:负载均衡
随着互联网信息的爆炸性增长,负载均衡(load balance)已经不再是一个很陌生的话题。
顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验。
快速增长的访问量和数据流量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很好的功能,但却价刘寄奴的功效格不菲。
这使得负载均衡软件大受欢迎,nginx 就是其中的一个,在 linux 下有 nginx、lvs、haproxy 等等服务可以提供负载均衡服务。
nginx 的负载均衡是 proxy 模块和 upstream 模块搭配实现的。upstream模块将会启用一个新的配置区段,在该区段定义了一组上游服务器。
实现效果:配置负载均衡。
①同时启动两个 tomcat(为了方便验证效果,修改 tomcat 端口号的同时,顺便将 tomcat 默认欢迎页面
apache-tomcat-9.0.29/webapps/roor 目录下的 index.jsp 修改下,看下 8081 欢迎页的“蛋蛋”没):
②修改 nginx.conf:
http{upstreammyrver{rverlocalhost:8080;rverlocalhost:8081;}rver{listen80;location/{proxy_passhttp://myrver;}}}
③重启 nginx,验证效果(默认轮询的方式,每次打开新窗口,8080 和 8081 会交替出现,同一个窗口的话需要关闭浏览器缓存)。
nginx 分配策略:
轮询(默认) 每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。weight 代表权重,默认为 1,权重越高被分配的客户端越多,指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。例如:
upstreamrver_pool{rver192.168.5.21weight=10;rver192.168.5.22weight=10;}
ip_hash 每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 ssion 的问题。
例如:
upstreamrver_pool{ip_hash;rver192.168.5.21:80;rver192.168.5.22:80;}
fair(第三方) 按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstreamrver_pool{rver192.168.5.21:80;rver192.168.5.22:80;fair;}
nginx 配置:动静分离
nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和静态页面物理分离。
严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 nginx 处理静态页面,tomcat 处理动态页面。
动静分离从目前实现角度来讲大致分为两种:
纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;动态跟静态文件混合在一起发布,通过 nginx 来分开。通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。
具体 expires 定义:是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可, 所以不会产生额外的流量。
此种方法非常适合不经常变动的资源(如果经常更新的文件, 不建议使用 expires 来缓存)。
我这里设置 3d,表示在这 3 天之内访问这个 url,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码 304,如果有修改,则直接从服务器重新下载,返回状态码 200。
①服务器找个目录存放自己的静态文件:
②修改 nginx.conf:
rver{listen80;rver_namelocalhost;location/static/{root/usr/data/www;}location/image/{root/usr/data/;autoindexon;}
③./nginx -s reload,验证效果:
添加监听端口、访问名字重点是添加 location,最后检查 nginx 配置是否正确即可,然后测试动静分离是否成功,只需要删除后端 tomcat 服务器上的某个静态文件,查看是否能访问,如果可以访问说明静态资源 nginx 直接返回了,不走后端 tomcat 服务器。
nginx 的 rewrite
rewrite 是 nginx 服务器提供的一个重要的功能,它可以实现 url 重写和重定向功能。
场景如下:
url 访问跳转,支持开发设计。页面跳转、兼容性支持(新旧版本更迭)、展示效果(网址精简)等o 优化(nginx 伪静态的支持)后台维护、流量转发等安全(动态界面进行伪装)该指令是通过正则表达式的使用来改变 uri。可以同时存在一个或多个指令。需要按照顺序依次对 url 进行匹配和处理。
该指令可以在 rver 块或 location 块中配置,其基本语法结构如下:
rewriteregexreplacement[flag];
①采用反向代理 demo2 中的例子,修改 nginx.conf(只多加了一行 rewrite):
rver{listen80;rver_namelocalhost;location/java/{proxy_passhttp://127.0.0.1:8080;rewrite^/java/egg/redirect;}location/egg/{proxy_passhttp://127.0.0.1:8081;}}
②./nginx -s reload,验证效果(输入 ip/java/ 被重定向到了 egg):
rewrite 指令可以在 rver 块或 location 块中配置,其基本语法结构如下:
rewriteregexreplacement[flag];
rewrite 的含义:该指令是古今贤文读书篇实现 url 重写的指令。regex 的含义:用于匹配 uri 的正则表达式。replacement:将 regex 正则匹配到的内容替换成 replacement。flag:flag 标记。flag 有如下值:
last:本条规则匹配完成后,继续向下匹配新的 location uri 规则。(不常用)break:本条规则匹配完成即终止,不再匹配后面的任何规则(不常用)。redirect:返回 302 临时重定向,浏览器地址会显示跳转新的 url 地址。permanent:返回 301 永久重定向。浏览器地址会显示跳转新的 url 地址。rewrite^/(.*)http://www.360.cn/$1permanent;
nginx 高可用
如果将 web 服务器集群当做一个城池,那么负载均衡服务器就相当于城门。如果“城门”关闭了,与外界的通道就断了。
如果只有一台 nginx 负载服务器,当故障宕机的时候,就会导致整个网站无法访问。
所以我们需要两台以上 nginx 来实现故障转移和高可用:
那么如何配置高可用?
①双机热备方案
这种方案是国内企业中最为普遍的一种高可用方案,双机热备其实就是指一台服务器在提供服务,另一台为某服务的备用状态,当一台服务器不可用另外一台就会顶替上去。
keepalived 是什么?keepalived 软件起初是专为 lvs 负载均衡软件设计的,用来管理并监控 lvs 集群系统中各个服务节点的状态。
后来又加入了可以实现高可用的 vrrp (virtual router redundancy protocol ,虚拟路由器冗余协议)功能。
因此,keepalived 除了能够管理 lvs 软件外,还可以作为其他服务(例如:nginx、haproxy、mysql 等)的高可用解决方案软件。
②故障转移机制
keepalived 高可用服务之间的故障切换转移,是通过 vrrp 来实现的。
在 keepalived服务正常工作时,主 master 节点会不断地向备节点发送(多播的方式)心跳消息,用以告诉备 backup 节点自己还活着。
当主 master 节点发生故障时,就无法发送心跳消息,备节点也就因此无法继续检测到来自主 master 节点的心跳了,于是调用自身的接管程序,接管主 master 节点的 ip 资源及服务。
而当主 master节点恢复时,备 backup 节点又会释放主节点故障时自身接管的 ip 资源及服务,恢复到原来的备用角色。
实现方法如下:①准备两台安装 nginx 和 keepaliver(yum install keepalived -y)的服务器
②修改两台服务器上的
/etc/keepalived/keepalived.conf
#主机#检测脚本vrrp_scriptchk_http_port{script"/usr/local/src/check_nginx.sh"#心跳执行的脚本,检测nginx是否启动interval2#(检测脚本执行的间隔,单位是秒)weight2#权重}#vrrp实例定义部分vrrp_instancevi_1{statemaster#指定keepalived的角色,master为主,backup为备interfaceens33#当前进行vrrp通讯的网络接口卡(当前centos的网卡)用ifconfig查看你具体的网卡virtual_router_id66#虚拟路由编号,主从要一直priority100#优先级,数值越大,获取处理请求的优先级越高advert_int1#检查间隔,默认为1s(vrrp组播周期秒数)#授权访问authentication{auth_typepass#设置验证类型和密码,master和backup必须使用相同的密码才能正常通信auth_pass1111}track_script{chk_http_port#(调用检测脚本)}virtual_ipaddress{192.168.16.150#定义虚拟ip(vip),可多设,每行一个}}
#备机#检测脚本vrrp_scriptchk_http_port{script"/usr/local/src/check_nginx.sh"#心跳执行的脚本,检测nginx是否启动interval2#(检测脚本执行的间隔)weight2#权重}#vrrp实例定义部分vrrp_instancevi_1{statebackup#指定keepalived的角色,master为主,backup为备interfaceens33#当前进行vrrp通讯的网络接口卡(当前centos的网卡)用ifconfig查看你具体的网卡virtual_router_id66#虚拟路由编号,主从要一直priority99#优先级,数值越大,获取处理请求的优先级越高advert_int1#检查间隔,默认为1s(vrrp组播周期秒数)#授权访问authentication{auth_typepass#设置验证类型和密码,master和backup必须使用相同的密码才能正常通信auth_pass1111}track_script{chk_http_port#(调用检测脚本)}virtual_ipaddress{192.168.16.150#定义虚拟ip(vip),可多设,每行一个}}
③新建检测脚本(chmod 775 check_nginx.sh):
#!/bin/bash#检测nginx是否启动了a=`ps-cnginx--no-header|wc-l`if[$a-eq0];then#如果nginx没有启动就启动nginxsystemctlstartnginx#重启nginxif[`ps-cnginx--no-header|wc-l`-eq0];then#nginx重启失败,则停掉keepalived服务,进行vip转移killallkeepalivedfifi
④启动 nginx 和 keepalived(systemctl start keepalived.rvice)
⑤模拟 nginx 故障(关闭主服务器 nginx),验证,仍可以通过配置的虚拟 ip 访问,ok。
nginx 原理与优化参数配置
nginx 默认采用多进程工作方式,nginx 启动后,会运行一个 master 进程和多个 worker 进程。
其中 master 充当整个进程组与用户的交互接口,同时对进程进行监护,管理 worker 进程来实现重启服务、平滑升级、更换日志文件、配置文件实时生效等功能。
worker 用来处理基本的网络事件,worker 之间是平等的,他们共同竞争来处理来自客户端的请求。
master-workers 的机制的好处:
可以使用 nginx-s reload 热部署。每个 worker 是独立的进程,不需要加锁,省掉了锁带来的开销。采用独立的进程,可以让互相之间不会影响,一个进程退出后,其他进程还在工作,服务不会中断,master 进程则很快启动新的 worker 进程。需要设置多少个 worker?nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进程里只有一个主线程,通过异步非阻塞的方式来处理请求,即使是成千上万个请求也不在话下。
每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu 数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。
#设置worker数量。worker_process4#work绑定cpu(4work绑定4cpu)。worker_cpu_affinity0001001001001000#work绑定cpu(4work绑定8cpu中的4个)。worker_cpu_affinity0000001000000100000010000001000
连接数 worker_connection:这个值是表示每个 worker 进程所能建立连接的最大值。
所以,一个 nginx 能建立的最大连接数,应该是 worker_connections*worker_process。
当然,这里说的是最大连接数,对于 http 请 求 本 地 资 源 来 说 , 能 够 支 持 的 最 大 并 发 数 量 是 worker_connections*worker_process,如果是支持 http1.1 的浏览器每次访问要占两个连接。
所以普通的静态访问最大并发数是:worker_connections*worker_process /2。
而如果是 http 作为反向代理来说,最大并发数量应该是 worker_connections*worker_process/4。
因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服务的连接,会占用两个连接。
nginx 请求处理流程如下图:
nginx 模块开发
由于 nginx 的模块化特性,所以可以支持模块配置,也可以自定义模块,nginx 的模块开发,程序员目前还不需要太深入。
nginx 模块分类如下图:
nginx配置选项,解压 nginx 后的配置操作示例:
./configure--prefix=/usr/local/nginx--with-http_stub_status_module--with-pcre--with-http_ssl_module
nginx 面试题
①nginx 功能,你们项目中用到的 nginx?
反向代理服务器实现负载均衡做静态资源服务器作为 http rver②nginx 常用命令有哪些?
启动nginx./sbin/nginx停止nginx./sbin/nginx-sstop./sbin/nginx-squit重载配置./sbin/nginx-sreload(平滑重启)rvicenginxreload重载指定配置文件./sbin/nginx-c/usr/local/nginx/conf/nginx.conf查看nginx版本./sbin/nginx-v检查配置文件是否正确./sbin/nginx-t显示帮助信息./sbin/nginx-h
③nginx 常用配置?
worker_process 4; #工作进程数work_connections 65535; #每个进程的并发能力error_log
/data/nginx/logs/error.log; #错误日志
④nginx 是如何实现高并发的?
nginx 采用的是多进程(单线程)&多路 io 复用模型,异步,非阻塞。
一个主进程 master,多个工作进程 worker,每个工作进程可以处理多个请求 ,master 进程主要负责收集、分发请求。
每当一个请求过来时,master 就拉起一个 worker 进程负责处理这个请求。同时 master 进程也负责监控 woker 的状态,保证高可靠性。
在 nginx 中的 work 进程中,为了应对高并发场景,采取了 reactor 模型(也就是 i/o 多路复用,nio)。
i/o 多路复用模型:在 i/o 多路复用模型中,最重要的系统调用函数就是 lect(其他的还有 epoll 等)。
该方法能够同时监控多个文件描述符的可读可写情况(每一个网络连接其实都对应一个文件描述符),当其中的某些文件描述符可读或者可写时,lect 方法就会返回可读以及可写的文件描述符个数。
nginx work 进程使用 i/o 多路复用模块同时监听多个 fd(文件描述符),当 accept、read、write 和 clo 事件产生时,操作系统就会回调 fd 绑定的事件处理器。
这时候 work 进程再去处理相应事件,而不是阻塞在某个请求连接上等待。
这样就可以实现一个进程同时处理多个连接。每一个 worker 进程通过 i/o 多路复用处理多个连接请求。
为了减少进程切换(需要系统调用)的性能损耗,一般设置 worker 进程数量和 cpu 数量一致。
⑤nginx 和 apache 的区别?
轻量级,同样起 web 服务,比 apache 占用更少的内存及资源抗并发,nginx 处理请求是异步非阻塞的,而 apache 则是阻塞型的。
在高并发下 nginx 能保持低资源低消耗高性能高度模块化的设计,编写模块相对简单,最核心的区别在于 apache 是同步多进程模型,一个连接对应一个进程;nginx是异步的,多个连接(万级别)可以对应一个进程。
⑥nginx 的 upstream 支持的负载均衡方式?
轮询(默认)weight:指定权重ip_hash:每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器第三方:fair、url_hash⑦nginx 常见的优化配置有哪些?
调整 worker_process:指 nginx 要生成的 worker 数量,最佳实践是每个 cpu 运行 1 个工作进程。最大化 worker_connections。启用 gzip 压缩:压缩文件大小,减少了客户端 http 的传输带宽,因此提高了页面加载速度。为静态文件启用缓存。禁用 access_logs:访问日志记录,它记录每个 nginx 请求,因此消耗了大量 cpu 资源,从而降低了 nginx 性能。本文发布于:2023-04-05 06:23:46,感谢您对本站的认可!
本文链接:https://www.wtabcd.cn/fanwen/zuowen/0efc5956827f717f5941a2f5ff74c0fa.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文word下载地址:ssl加速功能(安装ssl证书步骤).doc
本文 PDF 下载地址:ssl加速功能(安装ssl证书步骤).pdf
留言与评论(共有 0 条评论) |