最新文章专题视频专题问答1问答10问答100问答1000问答2000关键字专题1关键字专题50关键字专题500关键字专题1500TAG最新视频文章推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37视频文章20视频文章30视频文章40视频文章50视频文章60 视频文章70视频文章80视频文章90视频文章100视频文章120视频文章140 视频2关键字专题关键字专题tag2tag3文章专题文章专题2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章专题3
当前位置: 首页 - 科技 - 知识百科 - 正文

nginx+keepalived配置高可用HTTP群集

来源:动视网 责编:小采 时间:2020-11-09 13:28:19
文档

nginx+keepalived配置高可用HTTP群集

nginx+keepalived配置高可用HTTP群集:Nginx不仅是一款优秀的WEB服务器,同时可以根据nginx的反代理可以配置成强大的负载均衡器.这里就介绍如何把nginx配置成负载均衡器,并结合keepalived配置高可用的集群.一般集群主要架构为: 前端为负载均衡器两个:主/备,两种工作方式,一种是备机待机状态,主机
推荐度:
导读nginx+keepalived配置高可用HTTP群集:Nginx不仅是一款优秀的WEB服务器,同时可以根据nginx的反代理可以配置成强大的负载均衡器.这里就介绍如何把nginx配置成负载均衡器,并结合keepalived配置高可用的集群.一般集群主要架构为: 前端为负载均衡器两个:主/备,两种工作方式,一种是备机待机状态,主机


Nginx不仅是一款优秀的WEB服务器,同时可以根据nginx的反代理可以配置成强大的负载均衡器.这里就介绍如何把nginx配置成负载均衡器,并结合keepalived配置高可用的集群.一般集群主要架构为: 前端为负载均衡器两个:主/备,两种工作方式,一种是备机待机状态,主机故

Nginx不仅是一款优秀的WEB服务器,同时可以根据nginx的反代理可以配置成强大的负载均衡器.这里就介绍如何把nginx配置成负载均衡器,并结合keepalived配置高可用的集群. 一般集群主要架构为:

前端为负载均衡器两个:主/备,两种工作方式,一种是备机待机状态,主机故障时备机接管主机工作实现故障庄毅,在主机故障恢复完成时备机继续仅需待机状态,第二种是主备同时工作,一台宕机另外一台自动接管另一台的工作实现故障转移. 第一种方式可以通过将域名解析到一个虚拟ip(vip)上,主负载均衡器绑定虚拟ip,当主负载均衡器出现故障时,通过keepalived自动将vip绑定到备用负载均衡器上同时arping网关刷新MAC地址.,避免单点故障. 第二种方式主备同时绑定一个vip,把域名通过DNS轮询的方式解析到这两个服务器上,主机出现故障,备机就将主机绑定vip绑定到备机上,同时arping网关刷新MAC地址.实现故障转移.

中间为WEB服务器作为real server,处理请求. 后端为数据库和分布式文件系统.数据库一般为主从两台.分布式文件系统有效解决WEB服务器之间的数据同步.有的还会将图片服务器单独分离出来放在后端.

本文使用环境:

  • CentOS 5.5 32位
  • nginx:nginx-1.0.11
  • keepalived:keepalived-1.1.19.tar.gz
  • 主调度器:192.168.3.1
  • 备调度器:192.168.3.2
  • real server:192.168.3.4/5/6
  • 本文采用第一种方式来进行vip为:192.168.3.253

    一、在主备服务器上部署nginx

    1.下载

    wget http://nginx.org/download/nginx-1.0.11.tar.gz
    

    2.安装

    ?yum??-y?install?zlib-devel?pcre-devel?openssl-devel ?# 安装依赖
    tar -zxvf nginx-1.0.11.tar.gz
    cd nginx-1.0.11
    ./configure --prefix=/usr/local/nginx --with-http_ssl_module --with-http_flv_module --with-http_gzip_static_module
    make && make install
    

    3.配置

    配置主调度器的nginx,编辑nginx.conf

    vi /usr/local/nginx/conf/nginx.conf
    http {
     include mime.types;
     default_type application/octet-stream;
     #log_format main '$remote_addr - $remote_user [$time_local] "$request" '
     # '$status $body_bytes_sent "$http_referer" '
     # '"$http_user_agent" "$http_x_forwarded_for"';
     #access_log logs/access.log main;
     sendfile on;
     #tcp_nopush on;
     #keepalive_timeout 0;
     keepalive_timeout 65;
     #gzip on;
     # 添加一组真实的服务器地址池
     # 供proxy_pass和fastcgi_pass指令中使用的代理服务器
     upstream real_server_pool {
     # 后台如果有动态应用的时候,ip_hash指令可以通过hash算法
     # 将客户端请求定位到同一台后端服务器上,解决session共享,
     # 但建议用动态应用做session共享
     # ip_hash;
     # server用于指定一个后端服务器的名称和参数
     # weight代表权,重默认为1,权重越高被分配的客户端越多
     # max_fails 指定时间内对后端请求失败的次数
     # fail_timeout 达到max_fails指定的失败次数后暂停的时间
     server 192.168.3.4:80 weight=1 max_fails=2 fail_timeout=30s;
     # down参数用来标记为离线,不参与负载均衡.在ip_hash下使用
     # 在此做演示,后面测试会去掉
     server 192.168.3.5:80 weight=1 max_fails=2 fail_timeout=30s down;
     # backup仅仅在非backup服务器宕机或繁忙的时候使用
     # (在此做演示,后面测试会去掉)
     server 192.168.3.6:80 weight=1 max_fails=2 fail_timeout=30s backup;
     }
     server {
     listen 192.168.3.1:80;
     server_name localhost;
     #charset koi8-r;
     #access_log logs/host.access.log main;
     location / {
     #root html;
     #index index.html index.htm;
     # 使用upstream设置的一组代理服务器
     # 如果后端服务器出现502或504等执行错误时,
     # 将自动将请求转发给负载均衡池中的另一台服务器.
     proxy_next_upstream http_502 http_504 error timeout invalid_header;
     proxy_pass http://real_server_pool;
     proxy_set_header Host $host;
     proxy_set_header X-Forwarded-For $remote_addr;
     }
     }
    }
    

    (注意:配置文件中注释ip_hash,以为ip_hash这个功能将保证这个客户端请求总是被转发到一台服务器上,所以如果启用了ip_hash指令,将不能再使用weight(权重参数),配置文件中加入为解释ip_hash指令) 配置备用nginx,将监听ip改为备用调度器的ip

    http {
     include mime.types;
     default_type application/octet-stream;
     #log_format main '$remote_addr - $remote_user [$time_local] "$request" '
     # '$status $body_bytes_sent "$http_referer" '
     # '"$http_user_agent" "$http_x_forwarded_for"';
     #access_log logs/access.log main;
     sendfile on;
     #tcp_nopush on;
     #keepalive_timeout 0;
     keepalive_timeout 65;
     #gzip on;
     upstream real_server_pool {
     #ip_hash;
     server 192.168.3.4:80 weight=1 max_fails=2 fail_timeout=30s;
     server 192.168.3.5:80 weight=1 max_fails=2 fail_timeout=30s;
     server 192.168.3.6:80 weight=1 max_fails=2 fail_timeout=30s;
     }
     server {
     listen 192.168.3.2:80; # 监听ip改为本地ip
     server_name localhost;
     #charset koi8-r;
     #access_log logs/host.access.log main;
     location / {
     #root html;
     #index index.html index.htm;
     proxy_next_upstream http_502 http_504 error timeout invalid_header;
     proxy_pass http://real_server_pool;
     proxy_set_header Host $host;
     proxy_set_header X-Forwarded-For $remote_addr;
     }
    

    然后启动主备nginx:

    /usr/local/nginx/sbin/nginx
    

    二、在主备服务器上部署keepalived

    安装 安装依赖:

    yum -y install kernel-devel # 安装依赖
    

    开启路由转发:

    vi /etc/sysctl.conf
    net.ipv4.ip_forward = 1 # 此参数改为1
    sysctl -p # 使修改生效
    

    首先安装ipvs:

    ln -s /usr/src/kernels/2.6.18-194.el5-i686/ /usr/src/linux # ipvs需要内核文件,做一个软连接
    # 下载
    wget http://www.linuxvirtualserver.org/software/kernel-2.6/ipvsadm-1.24.tar.gz
    tar -zxvf ipvsadm-1.24.tar.gz
    cd ipvsadm-1.24
    make
    make install
    

    然后安装keepalived

    # 下载
    wget http://www.keepalived.org/software/keepalived-1.1.19.tar.gz
    tar -zxvf keepalived-1.1.19.tar.gz
    cd keepalived-1.1.19
    ./configure --prefix=/ \ # 安装在默认位置(配置文件,二进制文件,启动脚本放到默认位置)
    --mandir=/usr/local/share/man/ \
    --with-kernel-dir=/usr/src/kernels/2.6.18-194.el5-i686/ # 需要内核的头文件
    make && make install
    

    配置keepalived

    编辑主调度器配置文件/etc/keepalived/keepalived.conf ###

    global_defs {
     notification_email {
     cold_night@linuxzen.com # 定义通知邮箱,有多个可以换行添加
    }
     notification_email_from root@linuxzen.com# 定义发送邮件的邮箱
     smtp_server www.linuxzen.com # 定义发件服务器
     smtp_connect_timeout 30 # 定义连接smtp服务器超时时间
     router_id LVS_DEVEL
    }
    vrrp_instance VI_1 {
     state MASTER # 标示主备,备机上改为BACKUP
     interface eth0 # HA监测的端口
     virtual_router_id 51 # 主备的virtual_router_id的值必须相同
     priority 100 # 优先级,通常主要比备稍大
     advert_int 1 # VRRP Multicast 广播周期秒数
     authentication { # 定义认证
     auth_type PASS # 认证方式
     auth_pass 1111 # 认证口令字
     }
     virtual_ipaddress { # 定义vip
     192.168.3.253 # 多个可换行添加,一行一个
     }
    }
    virtual_server 192.168.3.253 80 {
     delay_loop 6 # 每隔 6 秒查询 realserver 状态
     lb_algo rr
     lb_kind NAT
     nat_mask 255.255.255.0
     persistence_timeout 50 # 同一IP 的连接50秒内被分配到同一台realserver
     protocol TCP # 用TCP监测realserver的状态
     real_server 192.168.3.1 80 {
     weight 3 # 权重
     TCP_CHECK {
     connect_timeout 10 # 10秒无响应超时
     nb_get_retry 3
     delay_before_retry 3
     connect_port 80
     }
     }
     real_server 192.168.3.2 80 {
     weight 3
     TCP_CHECK {
     connect_timeout 3
     delay_before_retry 3
     connect_port 80
     }
     }
    }
    

    配置备用调度器的keepalived,只需要将state MASTER 改为state BACKUP,降低priority 100 的值:

    global_defs {
     notification_email {
     cold_night@linuxzen.com
    }
     notification_email_from root@linuxzen.com
     smtp_server www.linuxzen.com
     smtp_connect_timeout 30
     router_id LVS_DEVEL
    }
    vrrp_instance VI_1 {
     state BACKUP # 备机上改为BACKUP
     interface eth0
     virtual_router_id 51 # 主备的virtual_router_id的值必须相同
     priority 99 # 备用优先级小于主调度器
     advert_int 1
     authentication {
     auth_type PASS
     auth_pass 1111
     }
     virtual_ipaddress {
     192.168.3.253
     }
    }
    virtual_server 192.168.3.253 80 {
     delay_loop 6
     lb_algo rr
     lb_kind NAT
     nat_mask 255.255.255.0
     persistence_timeout 50
     protocol TCP 
     real_server 192.168.3.1 80 {
     weight 3
     TCP_CHECK {
     connect_timeout 10
     nb_get_retry 3
     delay_before_retry 3
     connect_port 80
     }
     }
     real_server 192.168.3.2 80 {
     weight 3
     TCP_CHECK {
     connect_timeout 3
     delay_before_retry 3
     connect_port 80
     }
     }
    }
    

    主备上启动keepalived:

    service keepalived start
    

    三、测试-----部署后端服务器

    在后端服务器安装nginx,这里仅部署一台然后创建3个基于ip的虚拟主机供测试: 绑定ip:

    ifconfig eth0:1 192.168.3.4/24
    ifconfig eth0:2 192.168.3.5/24
    ifconfig eth0:3 192.168.3.6/24
    

    安装nginx后编辑配置文件,在http块里添加:

    http {
     server {
     listen 192.168.3.4:80;
     server_name 192.168.3.4;
     location / {
     root html/s1;
     index index.html index.htm;
     }
     }
     server {
     listen 192.168.3.5:80;
     server_name 192.168.3.5;
     location / {
     root html/s2;
     index index.html index.htm;
     }
     }
     server {
     listen 192.168.3.6:80;
     server_name 192.168.3.5;
     location / {
     root html/s3;
     index index.html index.htm;
     }
     }
    }
    

    创建虚拟主机根目录,并创建不通的首页文档:

    cd /usr/local/nginx/html/
    mkdir s1 s2 s3
    echo server1 > s1/index.html
    echo server2 > s2/index.html
    echo server3 > s3/index.html
    

    启动nginx:

    /usr/local/nginx/sbin/nginx
    

    打开浏览器访问http://192.168.3.253

    刷新会看到显示不同的内容:server1,server2,server3(生产中的服务器应该是一样的) [gallery link="file" order="DESC"] 现在停掉主调度器的keepalived

    pkill keepalived
    

    查看备调度器的日志:

    cat /var/log/messages
    Feb 10 16:36:27 cfhost Keepalived_vrrp: VRRP_Instance(VI_1) Transition to MASTER STATE
    Feb 10 16:36:28 cfhost Keepalived_vrrp: VRRP_Instance(VI_1) Entering MASTER STATE
    Feb 10 16:36:28 cfhost Keepalived_vrrp: VRRP_Instance(VI_1) setting protocol VIPs.
    Feb 10 16:36:28 cfhost Keepalived_vrrp: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth0 for 192.168.3.253
    Feb 10 16:36:28 cfhost Keepalived_vrrp: Netlink reflector reports IP 192.168.3.253 added
    Feb 10 16:36:28 cfhost Keepalived_healthcheckers: Netlink reflector reports IP 192.168.3.253 added
    Feb 10 16:36:33 cfhost Keepalived_vrrp: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth0 for 192.168.3.253
    

    现在访问http://192.168.3.253依然可以访问. 大家也看到了备机keepalived只有检测主机的keepalived停止的时候才会切换vip,而不是检测一台real server的某一服务(比如检测80端口的HTTP)切换vip,所以在nginx进程停止的时候,如果服务器没有宕机这时候就无法实现故障转移,所以我们编写一个检测nginx状态的脚本结合keepalived实现故障转移:

    #!/bin/bash
    #filename:nsc.sh
    ps aux | grep nginx | grep -v grep 2> /dev/null 1>&2 # 过滤nginx进程
    if [[ $? -eq 0 ]] # 如果过滤有nginx进程会返回0则认为nginx存活
    then
     sleep 5 # 使脚本进入休眠
    else
    # 如果nginx没有存活尝试启动nginx,如果失败则杀死keepalived的进程
     /usr/local/nginx/sbin/nginx
     ps aux | grep nginx | grep -v grep 2> /dev/null 1>&2
     if [[ $? -eq 0 ]]
     then
     pkill keepalived
     fi
    fi
    

    然后后台运行此脚本:

    nohup sh nsc.sh &
    

    这样就实现了群集的高可靠和高可用.

    文档

    nginx+keepalived配置高可用HTTP群集

    nginx+keepalived配置高可用HTTP群集:Nginx不仅是一款优秀的WEB服务器,同时可以根据nginx的反代理可以配置成强大的负载均衡器.这里就介绍如何把nginx配置成负载均衡器,并结合keepalived配置高可用的集群.一般集群主要架构为: 前端为负载均衡器两个:主/备,两种工作方式,一种是备机待机状态,主机
    推荐度:
    标签: 配置 可用 htt
    • 热门焦点

    最新推荐

    猜你喜欢

    热门推荐

    专题
    Top