企业级缓存系统varnish应用与实战
环境背景:随着公司业务快速发展,公司的电子商务平台已经聚集了很多的忠实粉丝,公司也拿到了投资,这时老板想通过一场类似双十一的活动,进行一场大的促销,届时会有非常多的粉丝访问网站,你的总监与市场部门开完会后,确定活动期间会有平常10倍以上的访问请求,总监要求大幅增加网站容量,除了去扩容服务器之外,还有没有其他办法呢?
总项目流程图,详见 http://www.cnblogs.com/along21/p/8000812.html
实现基于Keepalived+Haproxy+Varnish+LNMP企业级架构
原理:
缓存,又称加速器,用于加速运行速度较快的设备与较慢设备之间的通信。基于程序的运行具有局部性特征其能实现加速的功能
1、环境准备
机器名称 |
IP配置 |
服务角色 |
备注 |
haproxy-server-master |
VIP:172.17.100.100 DIP:172.17.1.6 |
负载均衡器 主服务器 |
配置keepalived |
haproxy-server-backup |
VIP:172.17.100.100 DIP:172.17.11.11 |
负载服务器 从服务器 |
配置keepalived |
varnish |
RIP:192.168.30.2 |
缓存服务器 |
开启代理功能 |
rs01 |
RIP:192.168.30.107 |
后端服务器 |
开启lnmp的web |
rs02 |
RIP:192.168.30.7 |
后端服务器 |
开启lnmp的web |
2、在两个 haproxy上设置
全局段和默认段不用修改,就不写了
vim /etc/haproxy/haproxy.cfg
vim /etc/haproxy/haproxy.cfg
① frontend 前端设置
frontend web
bind :80
acl staticfile path_end .jpg .png .bmp .htm .html .css .js
use_backend varnish-server if staticfile
default_backend appsrvs
② backend 后端设置
backend varnish-server
balance roundrobin
server varnishsrv 192.168.30.2: check inter rise fall 3
backend appsrvs
balance roundrobin
server appsrv1 192.168.30.107:80 check inter 3000 rise 3 fall 3
server appsrv2 192.168.30.7:80 check inter 3000 rise 3 fall 3
③ 可以加个web状态监测页面,可要可不要
listen admin
bind :
stats enable
stats hide-version
stats uri /haproxy?admin
stats realm HAProxy\ Statistics
stats auth along:along
stats refresh 20s
stats admin if TRUE
3、设置keepalived
(1)在主haproxy-master 上
① 全局段,主要是设置发邮件的
global_defs {
notification_email {
root@localhost
}
notification_email_from root@along.com
smtp_server 127.0.0.1
smtp_connect_timeout
router_id keepalived_haproxy
}
② 编辑一个健康监测脚本,每2秒监测一次haproxy进程
vrrp_script chk_haproxy {
script "killall -0 haproxy"
interval
fall
rise
weight -
}
③ 定义主从和VIP
vrrp_instance VI_1 {
state MASTER
interface eth0
virtual_router_id
priority
advert_int
authentication {
auth_type PASS
auth_pass along
}
virtual_ipaddress {
172.17.100.100
}
track_script { //调用上边的脚本
chk_haproxy
}
}
(2)在从haproxy-backup 上,和主差不多,只需修改主从和优先级
vrrp_instance VI_1 {
state BACKUP
interface eth1
virtual_router_id
priority
advert_int
authentication {
auth_type PASS
auth_pass along
}
virtual_ipaddress {
172.17.100.100
}
}
4、设置varnish
(1)设置配置,管理Management进程的配置文件,配置进程的
vim /etc/varnish/varnish.params 修改端口和缓存类型及缓存大小
VARNISH_ADMIN_LISTEN_PORT=6082
VARNISH_STORAGE="file,/data/cache,1G"
(2)设置总配置文件,配置缓存系统的
vim /etc/varnish/default.vcl
(a)第一段
① 设置一个健康监测
vcl 4.0; //指定版本
import directors; //加载后端的轮询模块
probe backend_healthcheck { //设置名为backend_healthcheck的健康监测
.url = "/index.html";
.window = ; #窗口
.threshold = ; #门槛
.interval = 3s;
.timeout = 1s;
} ② 设置后端server
backend web1 {
.host = "192.168.30.107";
.port = "";
.probe = backend_healthcheck;
}
backend web2 {
.host = "192.168.30.7";
.port = "";
.probe = backend_healthcheck;
} ③ 配置后端集群事件
sub vcl_init {
new web_cluster = directors.round_robin(); //把web1和web2 配置为轮询集群,取名为web_cluste
web_cluster.add_backend(web1);
web_cluster.add_backend(web2);
}
acl purgers { # 定义可访问来源IP,权限控制
"127.0.0.1";
"172.17.0.0"/;
}
(b)第二段,定义引擎
① 定义vcl_recv 引擎,不认识的头部请求直接扔后端的pass
sub vcl_recv {
if (req.method == "GET" && req.http.cookie) {
return(hash); //处理完recv 引擎,给下一个hash引擎处理
}
if (req.method != "GET" &&
req.method != "HEAD" &&
req.method != "PUT" &&
req.method != "POST" &&
req.method != "TRACE" &&
req.method != "OPTIONS" &&
req.method != "PURGE" &&
req.method != "DELETE") {
return (pipe); //除了上边的请求头部,通过通道直接扔后端的pass
}
② 定义index.php通过特殊通道给后端的server,不经过缓存
if (req.url ~ "index.php") {
return(pass);
}
③ 定义删除缓存的方法
if (req.method == "PURGE") { # PURGE请求的处理的头部,清缓存
if (client.ip ~ purgers) {
return(purge);
}
}
④ 为发往后端主机的请求添加X-Forward-For首部
if (req.http.X-Forward-For) { # 为发往后端主机的请求添加X-Forward-For首部
set req.http.X-Forward-For = req.http.X-Forward-For + "," + client.ip;
} else {
set req.http.X-Forward-For = client.ip;
}
return(hash);
} ⑤ 定义vcl_hash 引擎,后没有定义hit和Miss的路径,所以走默认路径
sub vcl_hash {
hash_data(req.url);
} ⑥ 定义要缓存的文件时长
sub vcl_backend_response { # 自定义缓存文件的缓存时长,即TTL值
if (bereq.url ~ "\.(jpg|jpeg|gif|png)$") {
set beresp.ttl = 30d;
}
if (bereq.url ~ "\.(html|css|js)$") {
set beresp.ttl = 7d;
}
if (beresp.http.Set-Cookie) { # 定义带Set-Cookie首部的后端响应不缓存,直接返回给客户端
set beresp.grace = 30m;
return(deliver);
}
} ⑦ 定义deliver 引擎
sub vcl_deliver {
if (obj.hits > ) { # 为响应添加X-Cache首部,显示缓存是否命中
set resp.http.X-Cache = "HIT from " + server.ip;
} else {
set resp.http.X-Cache = "MISS";
}
unset resp.http.X-Powered-By; //取消显示php框架版本的header头
unset resp.http.Via; //取消显示varnish的header头
}
5、开启服务的顺序
① 先开启后端server事先搭建好的lnmp web服务
systemctl start nginx
systemctl start php-fpm
systemctl start mariadb
② 再开启varnish缓存服务器
service varnish start
③ 开启主从的keepalived,提供VIP
service keepalived start
④ 开启haproxy服务
service haproxy start
6、测试
(1)配置完成后,client访问,http://172.17.100.100/ ,成功访问web
(2)访问http://172.17.100.100:9527/haproxy?admin ,haproxy的web监测页面,正常
(3)当主haproxy 宕机时,VIP自动漂移到从上,且服务正常使用
在主haproxy 上,server stop haproxy,VIP会漂到从上
(4)varnish 缓存服务器上,确实生成了缓存文件
F12打开网页的调试页面,查看确实缓存了
(5)测试清缓存的功能,PURGE 发送头部信息
(6)后端有一台server 宕机,服务照常使用
systemctl stop nginx