文章目录
前言
- 目前常见的 Web 集群调度器分为软件和硬件,软件常使用开源的 LVS、Haproxy、Nginx
- Haproxy 是目前比较流行的一种群集调度工具,同类群集调度工具有很多,比如 LVS 和 Nginx
- 相比较而言,LVS 性能最好,但是搭建相对复杂,Nginx 的 upstream 模块支持群集功能,但是对群集节点的健康检查功能不强,高并发性能没有 Haproxy 好
- 硬件一般使用比较多的是 F5,也有很多人使用国内的一些产品,如梭子鱼、绿盟等,有兴趣的同学可以自行查阅
一、Haproxy 应用分析
- LVS 在企业应用中抗负载能力很强,但存在不足:
- LVS 不支持正则处理,不能实现动静分离
- 对于大型网站,LVS 的实施配置复杂,维护成本相对较高
- Haproxy 是一款可提供高可用性、负载均衡、及基于 TCP 和 HTTP 应用的代理的软件
- 适用于负载大的 Web 站点
- 运行在硬件上可支持数以万计的并发连接的连接请求
二、负载均衡常用调度算法
LVS、Haproxy、Nginx 最常用的调度算法有三种,如下所述:
1.轮询(RR)
- RR(Round Robin)算法是最简单最常用的一种算法,即轮询调度
- 例如:有三个节点 A、B、C,第一个用户访问会被指派到节点 A,第二个用户会被指派到节点 B,第三个用户会被指派带节点 C,第四个用户访问继续指派到节点 A,轮询分配访问请求以实现负载均衡效果
- 此算法还有一种加权轮询,即根据每个节点的权重轮询分配访问请求
2.最小连接数(LC)
- LC 算法即最小连接数算法,即根据后端的节点连接数大小动态分配前端请求
- 例如:有三个节点 A、B、C,各节点的连接数分别为 4、5、6,此时如果有第一个用户连接请求,会被指派到 A 上,A 的连接数变成了 4+1=5,现在为 5、5、6
- 有第二个用户请求时,会继续被指派到 A 上,连接数变成了 6、5、6
- 再由新的请求则会指派给 B,连接数变成了 6、6、6,每次将新的请求指派给连接数最小的客户端
- 由于实际情况下 A、B、C 的连接数会动态释放,很难会出现连接数一样的情况,因此 LC 算法相比较 RR 算法有很大改进,是目前用的比较多的一种算法
3.来源访问(SH)
- SH(Source Hashing)即基于来源访问调度算法,此算法用于一些有 Session 会话记录在服务器端的场景,可以基于来源的 IP、Cookie 等做群集调度
- 例如:使用基于源 IP 的群集调度算法,有三个节点 A、B、C,第一个用户的第一次访问被指派到了 A,第二个用户的第一次访问被指派到了 B
- 当第一个用户的第二次访问时会被继续指派到 A,第二个用户的第二次访问时依旧会被指派的 B
- 只要负载均衡调度器不重启,第一个用户访问都会被指派到 A,第二个用户访问都会被指派到 B,以实现集群的调度
- 此调度算法好处是实现会话保持,但某些 IP 访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用
三、搭建步骤
- 使用三台服务器模拟搭建一套 Web 群集,具体的拓扑图如下所示:
1.环境
主机 | 操作系统 | IP 地址 | 主要软件 |
---|---|---|---|
Haproxy 服务器 | CentOS 7 | 192.168.126.11 | haproxy-1.59.tar.gz |
Nginx 服务器 1 | CentOS 7 | 192.168.126.12 | nginx-1.12.2.tar |
Nginx 服务器 2 | CentOS 7 | 192.168.126.13 | nginx-1.12.2.tar |
客户端 | Win10 | 192.168.126.10 | Edge 浏览器 |
2.编译安装 Nginx 服务器
- Nginx 软件包传送门:nginx-1.12.2.tar(提取码:qyo0)
- 进一步学习可翻阅我之前的博客,传送门:Nginx 服务–服务基础、访问控制与虚拟主机
- 搭建 Nginx 1(CentOS 7-2)
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
#关闭防火墙及安全策略
yum -y install pcre-devel zlib-devel gcc gcc-c++ make
#安装响应软件包
useradd -M -s /sbin/nologin nginx
#Nginx服务程序默认以 nobody 身份运行,为其创建专门的用户账号,以便更准确地控制其访问权限
cd /opt
#用 Xshell,把下载好的软件包'拖'至此目录下
tar zxvf nginx-1.12.2.tar.gz
#解压缩
cd nginx-1.12.2/
./configure \
--prefix=/usr/local/nginx \
--user=nginx \
--group=nginx
#配置软件模块
make -j 2 && make install
#编译安装
ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/
#优化路径,以便系统识别nginx的操作命令
echo "Hello test123" > /usr/local/nginx/html/test.html
#建立测试页面
/usr/local/nginx/sbin/nginx
#以绝对路径启动服务
netstat -natp | grep nginx
#检测
http://192.168.126.12/test.html
#回到 VMware,打开火狐浏览器进行访问测试
- 搭建 Nginx 2(Cent0S 7-3)
- 搭建步骤与 Nginx 1 相同,不同之处在于建立的测试页面
echo "Hello test321" > /usr/local/nginx/html/test.html
http://192.168.126.13/test.html
#回到 VMware,打开火狐浏览器进行访问测试
3.编译安装 Haproxy
软件包传送门:haproxy-1.5.19.tar(提取码:h0yd)
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
yum install -y pcre-devel bzip2-devel gcc gcc-c++ make
cd /opt
tar zxvf haproxy-1.5.19.tar.gz
cd haproxy-1.5.19/
uname -r
#查看内核,kernel 大于 2.6.2 则使用以下参数
#否则为 TARGET=linux26
make TARGET=linux2628 ARCH=x86_64
#内核版本,系统位数,64位系统
make install
4.Haproxy 服务器配置
- Haproxy 配置文件根据功能和用途通常分为五个部分,即 global、defaults、listen、frontend 和 backend
- 但有些部分不是必需的,可以根据需要进行配置
mkdir /etc/haproxy
cp examples/haproxy.cfg /etc/haproxy/
cd /etc/haproxy/
vim haproxy.cfg
global
#为设定的全局配置部分
#属于进程级别的配置,通常和使用的操作系统配置相关
#4~5行,修改配置全局日志记录,local0为日志设备,默认存放到系统日志
log /dev/log local0 info
log /dev/log local0 notice
#log loghost local0 info
maxconn 4096 #每个 haproxy 进程可以接受的最大连接数,需考虑 ulimit-n 的限制
#8行,注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉
#chroot /usr/share/haproxy
uid 99 #用户UID
gid 99 #用户GID
daemon #守护进程模式
defaults
#为缺省默认配置部分
#这些设置参数属于公共配置,一般会被自动集成到 listen、frontend 和 backend 中
#如果没有在这几部分特别声明,将按照配置参数设置
log global #缺省日志配置,定义日志为global配置中的日志记录定义
mode http #设置 Haproxy 默认运行模式,为http
option httplog #采用http日志格式记录日志
option dontlognull #不记录健康检查日志信息
retries 3 #检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
redispatch #当服务器负载很高时,自动结束当前队列处理比较久的连接
maxconn 2000 #最大连接数
contimeout 5000 #连接超时时间
clitimeout 50000 #客户端超时时间
srvtimeout 50000 #服务器超时时间
#删除下面所有的listen项,添加
listen webcluster 0.0.0.0:80
#定义一个名为 webcluster 的 Haproxy 监控页面,监听端口为 80
option httpchk GET /test.html
#检查服务器的test.html文件
balance roundrobin
#负载均衡调度算法使用轮询算法roundrobin
server inst1 192.168.80.100:80 check inter 2000 fall 3
#定义在线节点
server inst2 192.168.80.101:80 check inter 2000 fall 3
补充:
- balance roundrobin:负载均衡调度算法
- 轮询算法:roundrobin;最小连接数算法:leastconn;来源访问调度算法:source,类似于nginx的ip_hash
- check inter 2000:表示haproxy服务器和节点之间的一个心跳频率
- fall 3:表示连续三次检测不到心跳频率则认为该节点失效
- 若节点配置后带有“backup”表示该节点只是个备份节点,只有主节点失效该节点才会上
- 不携带“backup”,表示为主节点,和其它主节点共同提供服务
5.添加并开启 haproxy 系统服务
cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
cd /etc/init.d
chmod +x haproxy
#赋权
chkconfig --add /etc/init.d/haproxy
#增加该服务,让chkconfig指令得以管理它,并同时在系统启动的叙述文件内增加相关数据
ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
#优化路径,把 haproxy 放入系统命令路径以识别
service haproxy start
或
/etc/init.d/haproxy start
#开启服务
6.测试 Web 群集
- 通过以上步骤,已经搭建完成了 Haproxy 的 Web 群集,接下来需要验证群集是否工作正常
- 一个群集一般需要具备两个特征,第一个是高性能,第二个是高可用
6.1 测试高性能
- 在客户端使用浏览器打开 http://192.168.126.11/test.html
- 刷新浏览器页面,用以测试负载均衡效果
- 可以看到负载均衡已经生效,满足了群集的高性能需求
6.2 测试高可用性
- 现将停止 Nginx 1 的服务,用于模拟故障
- 再客户端使用浏览器打开 http://192.168.126.11/test.html
- 可以看到仍然可以访问 另一台 Nginx 节点服务器的页面,即当一台节点出现故障,并不会影响群集的使用,这样就满足了高可用性
- 也可以恢复 节点1 的 Nginx,再停止 节点2 的 Nginx 服务,用以测试高可用性
7.定义日志
- 默认 haproxy 的日志是输出到系统的 syslog 中,查看起来不是非常方便,为了更好的管理 haproxy 的日志,我们在生产环境中一般单独定义出来
- 需要将 haproxy 的 info 及 notice 日志分别记录到不同的日志文件中
vim /etc/haproxy/haproxy.cfg
global
log /dev/log local0 info
log /dev/log local0 notice
service haproxy restart
- 需要修改 rsyslog 配置,为了便于管理
- 将 haproxy 相关的配置独立定义到 haproxy.conf,并放到 /etc/rsyslog.d/ 下,rsyslog 启动时会自动加载此目录下的所有配置文件
vim /etc/rsyslog.d/haproxy.conf
if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&̲~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~
- 这部分配置是将 haproxy 的 info 日志记录到 /var/log/haproxy/haproxy-info.log 下,将 notice 日志记录到 /var/log/haproxy/haproxy-notice.log 下
- “&~” 表示当日志写入到日志文件后,rsyslog 停止处理这个信息
systemctl restart rsyslog.service
#重启完后,用客户端重新访问页面,然后就可以看到由日志文件生成了
cd /var/log/
cd /var/log/haproxy/
ls
cat haproxy-info.log
#查看新生成的日志文件的内容