负载均衡

单个服务器处理不了请求,我们需要增加服务器的数量,然后将请求分发到各个服务器,原来是请求集中到单个服务器,现在是请求被分发到多个服务器,将负载分发到多个服务器上,这就是我们所说的负载均衡。

实例

访问某条路径,平均分配到两台服务器上

步骤

修改端口,一个是8080,一个是8081,然后准备一些简单的文件夹和测试页面

修改修改nginx.conf文件(在linux系统上安装的nginx)

在http块中修改

在Windows浏览器中输入地址测试

结果: 每次刷新浏览器,真正请求到的tomcat服务器都会变换,说明成功平均负载到了两台tomcat服务器


Nginx提供负载均衡的分配策略

  1. 轮训(默认)
    每个请求,按照请求的事件顺序,逐一分配到不同的后端服务器,后果服务器关掉了,那么可以自动剔除
  2. Weight(权重)
    默认为1,权重越高,被分配的客户端越多
  3. ip_hash
    每个请求,按照访问IP的hash结果分配,这样就可以每个访客固定访问一个服务器,可以解决session的问题.
  4. fair(第三方)
    按照后端服务器的响应时间来分配请求,响应时间越短的优先分配
最后修改日期:2020-07-13

作者

留言

撰写回覆或留言

发布留言必须填写的电子邮件地址不会公开。