飞不高 发表于 4 天前

百万架构师第四十三课:Nginx:Nginx 应用实战|JavaGuide

百万架构师系列文章阅读体验感更佳

原文链接:https://javaguide.net

公众号:不止极客

课程目标:


[*]Nginx 反向代理功能设置
[*]Nginx 负载均衡实战
[*]Nginx 动静分离设置
[*]Nginx 设置文件分析
[*]Nginx 多进程模子原理
[*]Nginx 高可用集群实战
反向代理

https://img2024.cnblogs.com/other/2396776/202502/2396776-20250225201854642-734417405.png
​        我们把请求发送到 proxy (代理服务器),转发到后端的服务器上,返回到代理,返回到欣赏器,去做一个解析。
作用:

[*]代理的是服务端(我们客户端不需要直接去跟服务端去打交道,我通过代理来做。比如说我要找房子,我找中介,他会帮我做一些筛选。)
nginx.conf
#keepalive_timeout0;
keepalive_timeout65;


# 扫描这个目录下的配置文件(配置在 HTTP 里边)
include extra/*.conf;注意: 扫描目录的路径一定要设置正确!(相对路径,相对于 nginx.conf 的路径)
# vim conf/nginx.conf
# mkdir extra
# cd extra/
# vim proxy_dem o.conf

server{
      listen 80;
      server_name localhost;
      location /{
                proxy_pass http:192.168.40.128:8080;   
      }
}​        nginx 反向代理的指令不需要新增额外的模块,默认自带 proxy_pass 指令,只需要修改设置文件就可以实现反向代理。
​       proxy_pass 既可以是ip地址,也可以是域名,同时还可以指定端口
Nginx反向代理实战

[*]启动 tomcat 服务器
[*]nginx设置的同一维护,将Nginx.conf文件的内容修改成如下设置
NginxTomcathttps://img2024.cnblogs.com/other/2396776/202502/2396776-20250225201854864-261633246.pnghttps://img2024.cnblogs.com/other/2396776/202502/2396776-20250225201855081-1158073097.pngproxy_demo.conf
server {
    listen 80;
    server_name localhost;
    location /{
      proxy_pass http://192.168.40.128:8080;
      # 拿到端口
      proxy_set_header Host $host;
      # 拿到远端的 IP,真实的IP
      proxy_set_header X-Real-IP $remote_addr;
      # 这个可以让 tomcat 拿到所有代理服务器的地址。如果有多个,那么他就可以拿到多个
      proxy_set_header X-Forworded-For $proxy_add_x_forwarded_for;
    }
}
[*]在 extra 文件夹中添加 proxy_demo.conf
[*]./nginx -s reload 重新加载
https://img2024.cnblogs.com/other/2396776/202502/2396776-20250225201855339-1130375327.png
Nginx 可以利用 Http 的 header 来转达一些信息。
负载均衡

​        网络负载均衡的大致原理是利用一定的分配计谋将网络负载平衡地分摊到网络集群的各个操作单元上,使得单个重负载任务能够分担到多个单元上并行处理,使得大量并发访问或数据流量分担到多个单元上分别处理,从而减少用户的等候相应时间
负载均衡器


[*]硬件负载

[*]F5 、 Array

[*]软件负载

[*]Nginx 、 Lvx 、 HAProxy

​        upstream 是 Nginx 的 HTTP Upstream 模块,这个模块通过一个简朴的调度算法来实现客户端IP到后端服务器的负载均衡

[*]Upstream
语法:server address
[*]负载均衡计谋或者算法

[*]轮询算法(默认), 如果后端服务器宕机以后,会自动踢出
[*]ip_hash 根据请求的ip地址进行hash(同一个 IP 只会落到一个 背景服务器上)
upstream tomcat{
    # 如果想要用 ip hash 算法
    ip_hash;

    # 对应我们后端服务器真实的 IP 地址
    server 192.168.40.128:8080;
    server 192.168.40.131:8080 ;
}
[*]权重轮询。当你后端节点的设置有好有坏,就需要按照权重来设置。
upstream tomcat{
    # 对应我们后端服务器真实的 IP 地址
    server 192.168.40.128:8080 weight = 1 ;
    server 192.168.40.131:8080 weight = 2 ;
}
[*]相应时间,可以按照服务器处理请求的相应时间来处理请求。

.nginx -s reloadJSP 页面的设置

修改 JSP 来提示自己
    <h1>${pageContext.servletContext.serverInfo}</h1>


<h1 > 请求的地址:<%=request.getRemoteAddr()%></h1>
<h1 > 请求的真实IP:<%=request.getHeader("X-Real-IP")%></h1>
<h1 > 请求的转发的代理:<%=request.getHeader("X-Forworded-For")%></h1>
    演示效果

upstream tomcat{
    # 对应我们后端服务器真实的 IP 地址
    server 192.168.40.128:8080;
    server 192.168.40.131:8080;
}

server {
    listen 80;
    server_name localhost;
    location /{
      proxy_pass http://tomcat;
      # 拿到端口
      proxy_set_header Host $host;
      # 拿到远端的 IP,真实的IP
      proxy_set_header X-Real-IP $remote_addr;
      # 这个可以让 tomcat 拿到所有代理服务器的地址。如果有多个,那么他就可以拿到多个
      proxy_set_header X-Forworded-For $proxy_add_x_forwarded_for;
    }
}随机访问。会转发到差别的 Tomcat 上边。
https://img2024.cnblogs.com/other/2396776/202502/2396776-20250225201855870-1707771063.pnghttps://img2024.cnblogs.com/other/2396776/202502/2396776-20250225201856148-766380757.png其他设置信息

proxy_next_upstream


[*]语法:proxy_next_upstream ;
[*]默认:proxy_next_upstream error timeout;
[*]设置块:http、server、location
​        这个设置表示当向一台上游服务器转发请求出现错误的时候,继续换一台上游服务器来处理这个请求。
​        默认情况下,上游服务器一旦开始发送相应数据, Nginx 反向代理服务器会立刻把应答包转发给客户端。因此,一旦Nginx开始向客户端发送相应包,如果中途出现错误也不允许切换到下一个上游服务器继续处理。这样做的目的是保证客户端只收到来自同一个上游服务器的应答。
proxy_connect_timeout


[*]语法: proxy_connect_timeout time;
[*]默认: proxy_connect_timeout 60s;
[*]范围: http, server, location
用于设置nginx与upstream server的连接超时时间,比如我们直接在location中设置
proxy_connect_timeout
1ms, 1ms很短,如果无法在指定时间建立连接,就会报错。
proxy_send_timeout

​        向后端写数据的超时时间,两次写操作的时间间隔如果大于这个值,也就是过了指定时间后端还没有收到数据,连接会被关闭
proxy_read_timeout

upstream tomcat{
    # 如果想要用 ip hash 算法
    # ip_hash;

    # 对应我们后端服务器真实的 IP 地址
    # 允许他的失败次数
    # 失败以后多长时间以内不再去请求它
    server 192.168.40.128:8080 max_fails=2 fail_timeout=60s ;
    server 192.168.40.131:8080 ;
}

server {
    listen 80;
    server_name localhost;
    location /{
      proxy_pass http://tomcat;
      # 拿到端口
      proxy_set_header Host $host;
      # 拿到远端的 IP,真实的IP
      proxy_set_header X-Real-IP $remote_addr;
      # 这个可以让 tomcat 拿到所有代理服务器的地址。如果有多个,那么他就可以拿到多个。
      proxy_set_header X-Forworded-For $proxy_add_x_forwarded_for;
      # 当我们的 niginx 对后端的请求进行转发的时候,哪些场景下允许进行切换。
      proxy_next_upstream error timeout http_500 http_503;
      # Nginx 和我们后端上游的服务器之间的连接超时时间————发起握手等候响应超时时间
      proxy_connect_timeout 60s;
      #后端服务器数据回传时间_就是在规定时间之内后端服务器必须传完所有的数据
      proxy_send_timeout 60;
      # 连接成功后_等候后端服务器响应时间_其实已经进入后端的排队之中等候处理(也可以说是后端服务器>处理请求的时间)
      proxy_read_timeout
    }
}从后端读取数据的超时时间,两次读取操作的时间间隔如果大于这个值,那么nginx和后端的连接会被关闭,如果一个请求的处理时间比力长,可以把这个值设置得大一些
proxy_upstream_fail_timeout

设置了某一个upstream后端失败了指定次数(max_fails)后,在fail_timeout时间内不再去请求它,默认为10秒
语法 server address
upstream backend {
    #服务器集群名字
    #server 192.168.218.129:8080 weight=1 max_fails=2 fail_timeout=600s;
    #server 192.168.218.131:8080 weight=1 max_fails=2 fail_timeout=600s;
}Nginx动静分离

什么是动静分离

​        后端的应用一定会存在动态资源和静态资源。必须依赖服务器生存的我们称为动态资源。不需要依赖容器的比如 css/js 或者图片等,这类就叫静态资源。
​        我们可以把静态资源放在 Nginx 上。静态资源不会频仍变动。

静态资源的类型

types {
    text/html html htm shtml;
    text/css css;
    text/xml xml;
    image/gif gif;
    image/jpeg jpeg jpg;
    application/javascript js;
    application/atom+xml atom;
    application/rss+xml rss;
    text/mathml mml;
    text/plain txt;
    text/vnd.sun.j2me.app-descriptor jad;
    text/vnd.wap.wml wml;
    text/x-component htc;
    image/png png;
    image/svg+xml svg svgz;
    image/tiff tif tiff;
    image/vnd.wap.wbmp wbmp;
    image/webp webp;
    image/x-icon ico;
    image/x-jng jng;
    image/x-ms-bmp bmp;
    application/font-woff woff;
    application/java-archive jar war ear;
    application/json json;
    application/mac-binhex40 hqx;
    application/msword doc;
    application/pdf pdf;
    application/postscript ps eps ai;
    application/rtf rtf;
    application/vnd.apple.mpegurl m3u8;
    application/vnd.google-earth.kml+xml kml;
    application/vnd.google-earth.kmz kmz;
    application/vnd.ms-excel xls;
    application/vnd.ms-fontobject eot;
    application/vnd.ms-powerpoint ppt;
    application/vnd.oasis.opendocument.graphics odg;
    application/vnd.oasis.opendocument.presentation odp;
    application/vnd.oasis.opendocument.spreadsheet ods;
    application/vnd.oasis.opendocument.text odt;
    application/vnd.openxmlformats-officedocument.presentationml.presentation
      pptx;
    application/vnd.openxmlformats-officedocument.spreadsheetml.sheet
      xlsx;
    application/vnd.openxmlformats-officedocument.wordprocessingml.document
      docx;
    application/vnd.wap.wmlc wmlc;
    application/x-7z-compressed 7z;
    application/x-cocoa cco;
    application/x-java-archive-diff jardiff;
    application/x-java-jnlp-file jnlp;
    application/x-makeself run;
    application/x-perl pl pm;
    application/x-pilot prc pdb;
    application/x-rar-compressed rar;
    application/x-redhat-package-manager rpm;
    application/x-sea sea;
    application/x-shockwave-flash swf;
    application/x-stuffit sit;
    application/x-tcl tcl tk;
    application/x-x509-ca-cert der pem crt;
    application/x-xpinstall xpi;
    application/xhtml+xml xhtml;
    application/xspf+xml xspf;
    application/zip zip;
    application/octet-stream bin exe dll;
    application/octet-stream deb;
    application/octet-stream dmg;
    application/octet-stream iso img;
    application/octet-stream msi msp msm;
    audio/midi mid midi kar;
    audio/mpeg mp3;
    audio/ogg ogg;
    audio/x-m4a m4a;
    audio/x-realaudio ra;
    video/3gpp 3gpp 3gp;
    video/mp2t ts;
    video/mp4 mp4;
    video/mpeg mpeg mpg;
    video/quicktime mov;
    video/webm webm;
    video/x-flv flv;
    video/x-m4v m4v;
    video/x-mng mng;
    video/x-ms-asf asx asf;
    video/x-ms-wmv wmv;
    video/x-msvideo avi;
}Nginx
​        在 Nginx 的 conf 目录下,有一个 mime.types 文件
​        用户访问一个网站,然后从服务器端获取相应的资源通过欣赏器进行解析渲染末了展示给用户,而服务端可以返回各种类型的内容,比如 xml、jpg、png、gif、flash、MP4、html、css 等等,那么欣赏器就是根据 mime-type 来决定用什么形式来展示的
​        图片可以放在 CDN ,(许多都是放在 阿里云 上)
​        服务器返回的资源给到欣赏器时,会把 媒体类型 告知欣赏器,这个告知的标识就是 Content-Type ,比如 Content-Type:text/html 。
演示代码

location ~ .*\.(js|css|png|svg|ico|jpg)$ {
    valid_referers none blocked 192.168.11.160 www.gupaoedu.com;
    if ($invalid_referer) {
      return 404;
    }
    root static-resource;
    expires 1d;
}

[*]把 Tomcat 目录webapps/ROOT/ 下除了 index.jsp 和 web.xml 全部删除,
[*]清除欣赏器的缓存,图片等就会加载失败。
[*]然后把相干的文件放到 nginx 的 static-resource 文件夹下。
动静分离的好处


[*]第一个, Nginx 本身就是一个高性能的静态 web 服务器;
[*]第二个,其实静态文件有一个特点就是根本上变化不大,所以动静分离以后我们可以对静态文件进行缓存、或者压缩提高网站性能
https://img2024.cnblogs.com/other/2396776/202502/2396776-20250225201856410-208320379.png
缓存

Cache-Control / Pragma / Expries
服务端可以告诉客户端,有没有这些信息,需不需要缓存。
https://img2024.cnblogs.com/other/2396776/202502/2396776-20250225201856631-1492816946.png
​        谷歌欣赏器,拿到服务器的信息,自动缓存。什么时候过期是由欣赏器决定的。实际过程中,仍然需要我们自己去决定缓存。
​        当一个客户端请求web服务器,请求的内容可以从以下几个地方获取:服务器、欣赏器缓存中或缓存服务器中。这取决于服务器端输出的页面信息。
​        欣赏器缓存将文件保存在客户端,好的缓存计谋可以减少对网络带宽的占用,可以提高访问速度,提高用户的体验,还可以减轻服务器的负担nginx缓存设置
Nginx缓存设置

​        Nginx可以通过expires设置缓存,比如我们可以针对图片做缓存,因为图片这类信息根本上不会改变。
在location中设置expires
格式: expires 30s|m|h|d
location ~ .*.(jpg|jpeg|gif|bmp|png|js|css|ico)$ {
    root static;
    expires 1d;
}压缩

Gzip

​        我们一个网站一定会包含许多的静态文件,比如图片、脚本、样式等等,而这些 css/js 可能本身会比力大,那么在网络传输的时候就会比力慢,从而导致网站的渲染速度。因此 Nginx中提供了一种 Gzip 的压缩优化手段,可以对后端的文件进行压缩传输,压缩以后的好处在于能够降低文件的大小来提高传输服从。
我们在一些网络上打开某些 CSS,然后实际大小一样平常大于它的传输大小。
https://img2024.cnblogs.com/other/2396776/202502/2396776-20250225201856865-1721211615.png
设置信息


[*]Gzip on|off 是否开启gzip压缩
[*]Gzip_buffers 4 16k #设置gzip申请内存的大小,作用是按指定大小的倍数申请内存空间。4 16k代表按照原始数据大小以16k为单元的4倍申请内存。
[*]Gzip_comp_level 压缩级别, 级别越高,压缩越小,但是会占用CPU资源
[*]Gzip_disable #正则匹配UA 表示什么样的欣赏器不进行gzip
[*]Gzip_min_length #开始压缩的最小长度(小于多少就不做压缩),可以指定单元,比如 1k
[*]Gzip_http_version 1.0|1.1 表示开始压缩的http协议版本
[*]Gzip_proxied (nginx 做前端代理时启用该选项,表示无论后端服务器的headers头返回什么信息,都无条件启用压缩)
[*]Gzip_type text/pliain,application/xml 对哪些类型的文件做压缩 (conf/mime.conf)
[*]Gzip_vary on|off 是否传输gzip压缩标识;启用应答头"Vary: Accept-Encoding";给代理服务器用的,有的欣赏器支持压缩,有的不支持,所以制止浪费不支持的也压缩,所以根据客户端的HTTP头来判断,是否需要压缩
演示效果

nginx.conf

# 扫描这个目录下的配置文件
include    extra/*.conf;

        # 是否打开 gzip
    gzip on;
    # 超过多长长度再进行压缩
    gzip_min_length 5K;
    # 压缩的等级越高,压缩后的文件越小,占用的 CPU 越高
    gzip_comp_level 3;
    # 对哪些文件做压缩
    gzip_types application/javascript image/jpeg;
    # 设置缓冲区,按照我们我们指定大小的倍数去申请内存,
    # 按照我们原始文件的大小,以 32K 为单位的四倍去申请内存。
    gzip_buffers 4 32k;
    # 是否传输 “vary: Accept-Encoding” 的文件头标志
    # 根据客户端的头去判断我们是不是要去做压缩。
    gzip_vary on;
}​        有些文件是很难压缩的。 有些文件是没有必要做压缩的。比如说 图片,视频 等。肯定要对图片做压缩,末了会失真的。
​        图片一样平常要放在 CDN 上的。
防盗链

​        一个网站上会有许多的图片,如果你不希望其他网站直接用你的图片地址访问自己的图片,或者希望对图片有版权保护。再或者不希望被第三方调用造成服务器的负载以及消耗比力多的流量问题,那么防盗链就是你必须要做的。
​        CSDN 上的文章,粘贴下来,图片展示不出来,微信公众号的文章粘贴出来,图片也表现不出来。
refer 是可以进行修改的。
防盗链设置

在Nginx中设置防盗链其实很简朴,
语法: valid_referers none | blocked | server_names | string ...;
默认值: —
上下文: server, location
​        “Referer”请求头为指定值时,内嵌变量 $invalid_referer 被设置为空字符串,否则这个变量会被置成“1”。查找匹配时不区分大小写,此中 none 表示缺少 referer 请求头、 blocked 表示请求头存在,但是它的值被防火墙或者代理服务器删除、server_names表示referer请求头包含指定的虚拟主机名。

[*]设置如下
location ~ .*.(gif|jpg|ico|png|css|svg|js)$ {
    valid_referers none blocked 192.168.11.153;
    if ($invalid_referer) {
      return 404;
    }
    root static;
}​        需要注意的是伪造一个有效的“Referer”请求头是相当容易的,因此这个模块的预期目的不在于彻底地阻止这些非法请求,而是为了阻止由正常欣赏器发出的大规模此类请求。还有一点需要注意,即使正常欣赏器发送的合法请求,也可能没有“Referer”请求头。
​        主要是防止转载,COPY 来 COPY 去的,量级的增长是很恐怖的。
跨域访问

​        他不光可以办理请求转发的问题。动静分离、防盗、限流。做集群。
​        什么叫跨域呢?如果两个节点的协议、域名、端口、子域名差别,那么进行的操作都是跨域的,欣赏器为了安全问题都是限制跨域访问,所以跨域其实是欣赏器本身的限制。
阿里云的图片库也是跨域的,需要实现对应的方法。
https://img2024.cnblogs.com/other/2396776/202502/2396776-20250225201857085-574940693.png
办理办法

修改 proxy_demo.conf 设置
server{
    listen 80;
    server_name localhost;
    location / {
      proxy_pass http://192.168.11.154:8080;
      proxy_set_header Host $host;
      proxy_set_header X-Real-IP $remote_addr;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      proxy_send_timeout 60s;
      proxy_read_timeout 60s;
      proxy_connect_timeout 60s;
      # 允许来自所有的访问地址
      add_header 'Access-Control-Allow-Origin' '';
      # 支持的请求方式
      add_header 'Access-Control-Allow-Methods' 'GET,PUT,POST,DELETE,OPTIONS';
      #支持的媒体类型   
      add_header 'Access-Control-Allow-Header' 'Content-Type,';
    }
    location ~ .*.(gif|jpg|ico|png|css|svg|js)$ {
      root static;
    }
}QA


[*]面试时,多线程的问题,怎样全面地回答?
答: 面试官给你的感觉是,他感觉你回答得不好。

[*]你没有很强的语言表达本领。你没有办法把这个业务场景和它的特性梳理出来。
[*]都知道,怎么去做。怎样去做?没有一种逻辑上的回答。
[*]多线程在某个阶段没有用过是很正常的。不代表我不会用。他内心会有点慌,会有种不敢讲的感觉。

​        面试官会有他擅长的领域。而自己会有自己擅长的领域,他能决定的就是他是否录用你。除此之外。只是一场简朴地技能交流。让对方相识你的技能体系。你要相识到公司的情况,这是一个双向的选择的过程。

[*]怎么去实现 灰度发布,怎么去实现 限流 。
百万架构师系列文章阅读体验感更佳

原文链接:https://javaguide.net

公众号:不止极客

泉源于:https://javaguide.net
微信公众号:不止极客

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: 百万架构师第四十三课:Nginx:Nginx 应用实战|JavaGuide