配置LVS+Keepalived

标签: lvs keepalived | 发表时间:2013-10-30 09:52 | 作者:
出处:http://eric-gcm.iteye.com
 
lvs说明:目前有三种IP负载均衡技术(VS/NAT、VS/TUN和VS/DR);
八种调度算法(rr,wrr,lc,wlc,lblc,lblcr,dh,sh)。
在调度器的实现技术中,IP负载均衡技术是效率最高的。在已有的IP负载均衡技术中有通过网络地址转换(Network Address Translation)将一组服务器构成一个高性能的、高可用的虚拟服务器,我们称之为VS/NAT技术(Virtual Server via Network Address Translation),大多数商品化的IP负载均衡调度器产品都是使用此方法,如Cisco的LocalDirector、F5的Big/IP和 Alteon的ACEDirector。在分析VS/NAT的缺点和网络服务的非对称性的基础上,我们提出通过IP隧道实现虚拟服务器的方法VS/TUN (Virtual Server via IP Tunneling),和通过直接路由实现虚拟服务器的方法VS/DR(Virtual Server via Direct Routing),它们可以极大地提高系统的伸缩性。所以,IPVS软件实现了这三种IP负载均衡技术,它们的大致原理如下(我们将在其他章节对其工作原理进行详细描述),
Virtual Server via Network Address Translation(VS/NAT)
通过网络地址转换,调度器重写请求报文的目标地址,根据预设的调度算法,将请求分派给后端的真实服务器;真实服务器的响应报文通过调度器时,报文的源地址被重写,再返回给客户,完成整个负载调度过程。
Virtual Server via IP Tunneling(VS/TUN)
采用NAT技术时,由于请求和响应报文都必须经过调度器地址重写,当客户请求越来越多时,调度器的处理能力将成为瓶颈。为了解决这个问题,调度器把请求报文通过IP隧道转发至真实服务器,而真实服务器将响应直接返回给客户,所以调度器只处理请求报文。由于一般网络服务应答比请求报文大许多,采用 VS/TUN技术后,集群系统的最大吞吐量可以提高10倍。
Virtual Server via Direct Routing(VS/DR)
VS/DR通过改写请求报文的MAC地址,将请求发送到真实服务器,而真实服务器将响应直接返回给客户。同VS/TUN技术一样,VS/DR技术可极大地提高集群系统的伸缩性。这种方法没有IP隧道的开销,对集群中的真实服务器也没有必须支持IP隧道协议的要求,但是要求调度器与真实服务器都有一块网卡连在同一物理网段上。
针对不同的网络服务需求和服务器配置,IPVS调度器实现了如下八种负载调度算法:使用比较多的是以下四种:
轮叫(Round Robin)
调度器通过"轮叫"调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均等地对待每一台服务器,而不管服务器上实际的连接数和系统负载。
加权轮叫(Weighted Round Robin)
调度器通过"加权轮叫"调度算法根据真实服务器的不同处理能力来调度访问请求。这样可以保证处理能力强的服务器处理更多的访问流量。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
最少链接(Least Connections)
调度器通过"最少连接"调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用"最小连接"调度算法可以较好地均衡负载。
加权最少链接(Weighted Least Connections)
在集群系统中的服务器性能差异较大的情况下,调度器采用"加权最少链接"调度算法优化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
以上的文字,关于LVS的原理解释,来自 http://zhangziqiang.blog.51cto.com/698396/180470 。
 
淡定的无聊,四处看论坛都发现有若干的文章提到了LVS+keepalived的配置,看得多了,古人又曾经云过:实践出真知。故且动手并记之,唯求勿忘,无他。
一个好习惯,先上图:
 
 
 
看图说话
1,四台测试电脑,为了测试方便,关闭了firewall和selinux
2,两台做负载,两台web服务器。
3,第一台主负载的名称:LVSM ,IP:172.17.94.16  操作系统:centos5.6  x86_64 2.6.18-274.el5
  第二台主负载的名称:LVSB, IP:172.17.94.21   操作系统:centos 5.6 X86_64 2.6.18-274.el5
  第一台web服务器名称:webone   IP:172.17.94.234  操作系统: centos 5.6 i686
  第二台 web服务器名称:webtwo IP:172.17.94.95  操作系统: centos 5.6 x86_x64 2.6.18-274.el5
       VIP:172.17.94.18
4,安装LVS和keepalived前的准备
      内核一定要注意,非常的注意。
     一共三台电脑的系统是centos 5.6 x86_64 2.6.18-274.el5,其实最开始的内核是2.6.18-238.el5,但是我发现在/usr/src/kernels里面没有2.6.18-238.el6的包。
使用centos系统,直接采用yun来更新。
本来是准备使用编译安装的,发现kernel.org在维护。
#yum -y install kernel-devel
 
#yum -y update kernel
 
#modprobe ip_vs    //内核加载ip_vs模块
 
 
#lsmod |grep ip_vs    //查看是否加载成功。
 
 
#ln -s /usr/src/kernerls/2.6.18-274.el5-x86_64/ /usr/src/linux    //生成一个链接文件
 
 
#cp /usr/src/kernels/2.6.18-274.el5/include/net/ip_vs.h        /usr/inclide/net/  //这个很重要,否则在安装ipvsadm的时候会提示缺少*.h文件
 
 
#yum -y install openssl openssl-devel //安装keepalived需要
前期准备工作完成,有些安装软件的依赖文件请慢慢琢磨着安装吧。比如gcc gcc-c++之类的。现在准备下载ipvsadm和keepalived了
#wget http://www.keepalived.org/software/keepalived-1.1.20.tar.gz
5,下载完毕,安装之
# tar xzvf    ipvsadm-1.24.tar.gz
 
#cd ipvsadm-1.24
 
#make && make install
安装完成,会多出以下文件。
/sbin/ipvsadm 
/sbin/ipvsadm-save 
/sbin/ipvsadm-restore 
/usr/man/man8/ipvsadm.8 
/usr/man/man8/ipvsadm-save.8 
/usr/man/man8/ipvsadm-restore.8 
/etc/rc.d/init.d/ipvsadm 
 
#tar xzvf keepalived-1.1.20.tar.gz
 
#cd keepalived-1.1.20
 
#./configure --prefix=/usr/local/keepalived
 
#make && make install
正确完成安装会显示如下信息:
Keepalived configuration 
------------------------ 
Keepalived version : 1.1.20 
Compiler : gcc 
Compiler flags : -g -O2 
Extra Lib : -lpopt -lssl -lcrypto    
Use IPVS Framework : Yes 
IPVS sync daemon support : Yes 
Use VRRP Framework : Yes 
Use Debug flags : No 
然后对keepalived做以下操作:
#cp /usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/rc.d/init.d/ 
 
#cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig 
 
#mkdir /etc/keepalived
 
#cp /usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/ 
 
#cp /usr/local/keepalived/sbin/keepalived /usr/sbin/
 
#check --add keepalived
 
#check --level 2345 keepalived on
安装完成,开始配置keepalived.conf
#vi /etc/keepalived/keepalived.conf
 
 
! Configuration File for keepalived 
global_defs { 
     notification_email { 
         #acassen@firewall.loc 
         #failover@firewall.loc 
         #sysadmin@firewall.loc 
            zjj@xxxxxx.com 
     } 
#     notification_email_from Alexandre.Cassen@firewall.loc 
     notification_email_from localhost # 
     smtp_server 127.0.0.1 
     smtp_connect_timeout 30 
     #router_id LVS_DEVEL 
     router_id LVS_MASTER //从负载机器需要修改的地方,我改成LVS_BACKUP 

vrrp_instance VI_1 { 
        state MASTER //从负载机器需要修改的地方,我改成BACKUP 
        interface eth0 
        virtual_router_id 51 
        priority 100 //从服务器需要修改的地方改成比100小的数字,改成99 
        advert_int 1 
        authentication { 
                auth_type PASS 
                auth_pass 1111 
        } 
        virtual_ipaddress { 
                #192.168.200.16 
                #192.168.200.17 
                #192.168.200.18 
                 172.17.94.18 
        } 

#virtual_server 192.168.200.100 443 { 
virtual_server 172.17.94.18 80 { 
        delay_loop 6 
        lb_algo wrr 
        #lb_kind NAT 
        lb_kind DR 
        nat_mask 255.255.224.0 
        persistence_timeout 50 
        protocol TCP 
#     real_server 192.168.201.100 443 { 
         real_server 172.17.94.234 80 { 
                weight 1 
                TCP_CHECK { 
                connect_timeout 10 
                nb_get_retry 3 
                delay_before_retry 3 
                connect_port 80 
                } 

         real_server 172.17.94.95 80 { 
                 weight 1 
                 TCP_CHECK { 
                    connect_timeout 10 
                    nb_get_retry 3 
                    delay_before_retry 3 
                    connect_port 80 
}                    
         


上面的配置地方主从都差不多,需要修改的地方'//'符号标出了。
非常注意的地方,注意"{"是否和"}"配对,注意"{"和前面的字符串需要有1个空格,比如"VI_1 {"不要写成了"VI_1{",否则查看日志
#tail -f /var/log/messages
你会看到keepalived 一直提示需要设置VI_1.
主从完成配置
两台负载的机器都需要做以上操作。
真实的web服务器配置。非常简单,就是一个脚本,我取名为real.sh
#vi real.sh
 
#!/bin/bash 
#filename:real.sh 
VIP=172.17.94.18 
. /etc/rc.d/init.d/functions 
case "$1" in 
start) 
     ifconfig lo:0 $VIP broadcast $VIP netmask 255.255.255.255 up 
     /sbin/route add -host $VIP dev lo:0 
     echo "1">/proc/sys/net/ipv4/conf/lo/arp_ignore 
     echo "2">/proc/sys/net/ipv4/conf/lo/arp_announce 
     echo "1">/proc/sys/net/ipv4/conf/all/arp_ignore 
     echo "2">/proc/sys/net/ipv4/conf/all/arp_announce 
     sysctl -p >/dev/null 2>&1 
     echo "realServer Start ok" 
     ;; 
stop) 
     ifconfig lo:0 down 
     route del $VIP >/dev/null 2>&1 
     echo "0">/proc/sys/net/ipv4/conf/lo/arp_ignore 
     echo "0">/proc/sys/net/ipv4/conf/lo/arp_announce 
     echo "0">/proc/sys/net/ipv4/conf/all/arp_ignore 
     echo "0">/proc/sys/net/ipv4/conf/all/arp_announce 
     echo "realServer Stoped" 
     ;; 
*) 
    echo "Usage:$0{start|stop}" 
    exit 1 
esac 
exit 0 
上面这个脚本没什么好修改的,注意你自己的VIP输入正确就好了。其他的都可以照抄。
 
分别在2台web服务器上启动这个脚本。
然后再输入
#ifconfig
 
 
eth0            Link encap:Ethernet    HWaddr 00:50:8D:58:A8:DF 
                    inet addr:172.17.94.234    Bcast:172.17.255.255    Mask:255.255.0.0 
                    inet6 addr: fe80::250:8dff:fe58:a8df/64 Scope:Link 
                    UP BROADCAST RUNNING MULTICAST    MTU:1500    Metric:1 
                    RX packets:19707 errors:0 dropped:0 overruns:0 frame:0 
                    TX packets:2457 errors:0 dropped:0 overruns:0 carrier:0 
                    collisions:0 txqueuelen:1000 
                    RX bytes:2164485 (2.0 MiB)    TX bytes:206181 (201.3 KiB) 
                    Interrupt:169 Base address:0x2000 
lo                Link encap:Local Loopback 
                    inet addr:127.0.0.1    Mask:255.0.0.0 
                    inet6 addr: ::1/128 Scope:Host 
                    UP LOOPBACK RUNNING    MTU:16436    Metric:1 
                    RX packets:14 errors:0 dropped:0 overruns:0 frame:0 
                    TX packets:14 errors:0 dropped:0 overruns:0 carrier:0 
                    collisions:0 txqueuelen:0 
                    RX bytes:1008 (1008.0 b)    TX bytes:1008 (1008.0 b) 
lo:0            Link encap:Local Loopback 
                    inet addr:172.17.94.18    Mask:255.255.255.255 
                    UP LOOPBACK RUNNING    MTU:16436    Metric:1 
出来的就是这个样子。
 
注意在主负载服务器和从负载服务器输入以下命令
[root@LVSM keepalived]# ip add list
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue 
        link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 
        inet 127.0.0.1/8 scope host lo 
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast qlen 1000 
        link/ether 00:0c:29:0f:94:2f brd ff:ff:ff:ff:ff:ff 
        inet 172.17.94.16/19 brd 172.17.95.255 scope global eth0 
        inet 172.17.94.18/32 scope global eth0 
3: eth1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop qlen 1000 
        link/ether 00:0c:29:0f:94:39 brd ff:ff:ff:ff:ff:ff 
上面的输出是主负载机器的
下面看看从负载的输出
#ip add list
[root@LVSB keepalived]# ip add list 
 
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue 
        link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 
        inet 127.0.0.1/8 scope host lo 
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast qlen 1000 
        link/ether 00:0c:29:78:c6:35 brd ff:ff:ff:ff:ff:ff 
        inet 172.17.94.21/19 brd 172.17.95.255 scope global eth0 
3: eth1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop qlen 1000 
        link/ether 00:0c:29:78:c6:3f brd ff:ff:ff:ff:ff:ff 
 
注意到差别没有。
 
现在如果关闭主负载,那么VIP会自动切换到从负载上来。
 
再输入以下命令查看

 

[root@LVSM keepalived]# ipvsadm
IP Virtual Server version 1.2.1 (size=4096) 
Prot LocalAddress:Port Scheduler Flags 
    -> RemoteAddress:Port                     Forward Weight ActiveConn InActConn 
TCP    172.17.94.18:http wrr persistent 50 
    -> 172.17.94.95:http                        Route     1            0                    0 
    -> 172.17.94.234:http                     Route     1            0                    0 
ActiveConn和InActConn为0,是因为现在没有链接。


已有 0 人发表留言,猛击->> 这里<<-参与讨论


ITeye推荐



相关 [lvs keepalived] 推荐:

配置LVS+Keepalived

- -
lvs说明:目前有三种IP负载均衡技术(VS/NAT、VS/TUN和VS/DR);. 八种调度算法(rr,wrr,lc,wlc,lblc,lblcr,dh,sh). 在调度器的实现技术中,IP负载均衡技术是效率最高的. 在分析VS/NAT的缺点和网络服务的非对称性的基础上,我们提出通过IP隧道实现虚拟服务器的方法VS/TUN (Virtual Server via IP Tunneling),和通过直接路由实现虚拟服务器的方法VS/DR(Virtual Server via Direct Routing),它们可以极大地提高系统的伸缩性.

lvs+keepalived 负载均衡

- - CSDN博客系统运维推荐文章
LVS是一个开源的软件,可以实现LINUX平台下的简单负载均衡. LVS是Linux Virtual Server的缩写,意思是Linux虚拟服务器. 目前有三种IP负 载均衡技术(VS/NAT、VS/TUN和VS/DR);八种调度算法(rr,wrr,lc,wlc,lblc,lblcr,dh,sh).

LVS+Keepalived实现高可用集群(转)

- - 行业应用 - ITeye博客
操作系统平台:CentOS5.2. 软件:LVS+keepalived. LVS+Keepalived 介绍. LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统. 本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项 目之一.

atlas+lvs+keepalived mysql多主复制负载均衡搭建

- - x-marker的博客
1.1 mysql数据节点:. 三个节点为xtradb cluster节点. 1.2 keepalived节点:. 虚拟ip为192.168.1.201 . haproxy节点(仅为了对比lvs的性能才安装的):db169(部署在xtradb cluster的一个节点上). 1.3 atlas节点:和xtradb cluster节点部署在一起,也为三个节点.

lvs 问题

- - 操作系统 - ITeye博客
1: LVS连接的持久时间. 1)同一个ip发来请求到同一台RS的持久超时时间. ipvsadm -A -t 192.168.169.100:80 -s rr -p 120     #该客户的请求120秒内被分配给同一台web.  2)一个链接创建后空闲时的超时时间(分别是:tcp的空闲超时时间、lvs收到客户端tcp fin的超时时间、udp的超时时间).

Keepalived安装

- - CSDN博客架构设计推荐文章
Keepalived 是一种高性能的服务器高可用或热备解决方案,Keepalived可以用来防止服务器单点故障(单点故障是指一旦某一点出现故障就会导致整个系统架构的不可用)的发生,通过配合Nginx可以实现web前端服务的高可用. 安装Keeplived依赖. 安装 openssl. #通知email,根据实际情况配置 { admin@example.com } notification_email_from admin@example.com smtp_server 127.0.0.1 stmp_connect_timeout 30 router_id node1.

LVS调度算法

- - CSDN博客推荐文章
rr 轮询调度(Round-Robin). 它将请求一次分配不同的RS,也就是在RS中均摊请求,算法简单,但是只适合于RS处理性能相差不大的情况(多个服务器硬件配置差不多). wrr加权轮询调度(Weighted Round-Robin). 它根据RS不同的权值分配任务,权值高的RS优先获得请求,分配到的连接数将比权值低的RS更多,权值相同的RS得到的连接数数目相同.

LVS快速搭建教程

- - 博客园_首页
     1、使用VS/NAT调度.      2、使用VS/TUN调度.      3、使用VS/DR调度.     相信专程来读此文的读者对LVS必然有一定的了解,首先看图:. 毋庸置疑,Load Balancer是负载调度器,由它将网络请求无缝隙调度到真实服务器,至于此集群使用的是哪一种IP负载均衡技术(LVS有三种负载均衡技术,分别是VS/NAT、VS/TUN和VS/DR),暂时不用理会.

负载均衡之LVS

- - 标点符
LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统. 是由章文嵩博士发起的自由软件项目. LVS主要用于多服务器的负载均衡. 它工作在网络层,可以实现高性能,高可用的服务器集群技术. 它廉价,可把许多低性能的服务器组合在一起形成一个超级服务器.

Haproxy+KeepAlived 负载均衡

- - CSDN博客系统运维推荐文章
软件负载均衡一般通过两种方式来实现:基于操作系统的软负载实现和基于第三方应用的软负载实现. LVS就是基于Linux操作系统实现的一种软负载,HAProxy就是开源的并且基于第三应用实现的软负载. 还可以使用nginx来实现,不过nginx只工作在7层网络之上. 详细请参考 抚琴煮酒写的“ 软件级负载均衡器(LVS/HAProxy/Nginx)的特点简介和对比”这篇文章,简单很详细,很好.