负载均衡
单个服务器处理不了请求,我们需要增加服务器的数量,然后将请求分发到各个服务器,原来是请求集中到单个服务器,现在是请求被分发到多个服务器,将负载分发到多个服务器上,这就是我们所说的负载均衡。
实例
访问某条路径,平均分配到两台服务器上
步骤
修改端口,一个是8080,一个是8081,然后准备一些简单的文件夹和测试页面


修改修改nginx.conf文件(在linux系统上安装的nginx)
在http块中修改

在Windows浏览器中输入地址测试


结果: 每次刷新浏览器,真正请求到的tomcat服务器都会变换,说明成功平均负载到了两台tomcat服务器
Nginx提供负载均衡的分配策略
- 轮训(默认)
每个请求,按照请求的事件顺序,逐一分配到不同的后端服务器,后果服务器关掉了,那么可以自动剔除 - Weight(权重)
默认为1,权重越高,被分配的客户端越多 - ip_hash
每个请求,按照访问IP的hash结果分配,这样就可以每个访客固定访问一个服务器,可以解决session的问题. - fair(第三方)
按照后端服务器的响应时间来分配请求,响应时间越短的优先分配
留言