文档章节

Linux 双网卡绑定测试

s
 start0cheng
发布于 2015/02/09 23:14
字数 1061
阅读 36
收藏 0

 

Linux 双网卡绑定测试

 

先介绍一下情况,服务器A和服务器B都是CentOS 4.6的系统,现在要做HA Cluster,为了避免裂脑的发生,要提高心跳链路的可靠性,下图是现时的连接情况,服务器A的eth2、eth3分别和服务器B的eth2、eth3相连(没有顺序关系),所有网卡都是千兆网卡,拓扑图如下所示:

image

在介绍一起硬件情况,服务器A是一台HP DL380 G5,两年多的服务器了,4核心8G内存,5块72GB的2.5寸硬盘做RAID5。服务期B是DELL 2950,几个月前刚购入的新机器,8核16G内存,3块3.5寸300G SAS硬盘做RAID5。

业务交换机为DELL的千兆交换机,没做任何配置,仅当接入交换机使用。

图中的蓝线用的是几年前的超五类非屏蔽双绞线。

图中的红线用的是新购的六类非屏蔽双绞线。

测试方法很简单,将一个3.4G的ISO从服务器A scp到服务器B中,对比传输的时间。

数据走业务链路,没有使用bonding技术。
############## No Binding ##############
[root@rac-node01 tmp]# time scp rhel-5.1-server-x86_64-dvd.iso  10.168.0.202:/tmp 
root@10.168.0.202's password: 
rhel-5.1-server-x86_64-dvd.iso                                                    100% 3353MB  44.1MB/s   01:16    

real    1m20.105s
user    0m34.752s
sys     0m11.002s
############## 速度还是挺快的
数据走心跳链路,使用了bonding技术,mode设置为6,即不需要交换机参与的负载均衡。

令人奇怪的是该种模式下会丢一些数据包,也许是这种比较奇怪的拓扑结果造成的。

############## model=6 ##############
[root@rac-node01 tmp]# time scp rhel-5.1-server-x86_64-dvd.iso  192.168.0.202:/tmp
root@192.168.0.202's password: 
rhel-5.1-server-x86_64-dvd.iso                                                    100% 3353MB  21.4MB/s   02:37    

real    2m47.812s
user    0m34.965s
sys     0m19.421s  
[root@rac-node01 tmp]# netstat -i #@ Receive
Kernel Interface table
Iface       MTU Met    RX-OK RX-ERR RX-DRP RX-OVR    TX-OK TX-ERR TX-DRP TX-OVR Flg
bond1      1500   0  5123831   2045      0      0  5138747      0      0      0 BMmRU
eth0       1500   0     2847      0      0      0      703      0      0      0 BMRU
eth2       1500   0  2562665     11      0      0  2569378      0      0      0 BMsRU
eth3       1500   0  2561166   2034      0      0  2569369      0      0      0 BMsRU
lo        16436   0     2261      0      0      0     2261      0      0      0 LRU
############## 有数据包丢失
数据走心跳链路,使用了bonding技术,mode设置为0,即需要交换机参与的负载均衡。

该模式下不像mode=6那样会丢包,而且eth2和eth3的流量几乎平均。下面测试数据中的 RX-ERR是上面测试数据遗留下来的。

############## model=0 ##############
[root@rac-node01 tmp]# time scp rhel-5.1-server-x86_64-dvd.iso  192.168.0.202:/tmp
root@192.168.0.202's password: 
rhel-5.1-server-x86_64-dvd.iso                                                    100% 3353MB  38.1MB/s   01:28    

real    1m33.508s
user    0m34.539s
sys     0m19.363s
[root@mailserver tmp]# netstat -i     
Kernel Interface table
Iface       MTU Met    RX-OK RX-ERR RX-DRP RX-OVR    TX-OK TX-ERR TX-DRP TX-OVR Flg
bond1      1500   0 11133871   2045      0      0 11180462      0      0      0 BMmRU
eth0       1500   0  1334477      0      0      0  2575981      0      0      0 BMRU
eth2       1500   0  5567685     11      0      0  5590236      0      0      0 BMsRU
eth3       1500   0  5566186   2034      0      0  5590226      0      0      0 BMsRU
lo        16436   0     2270      0      0      0     2270      0      0      0 LRU
############## 没有丢包
数据走心跳链路,使用了bonding技术,mode设置为1,即Active-Backup,FailOver模式。

该模式存在一个问题,当服务器A的eth2和服务器B的eth3作为Active设备时,服务器A是不能和服务器B通过心跳链路通信的,此时拔掉其中一根心跳线再插就好了。

############## model=1 ##############
[root@rac-node01 ~]# time scp /tmp/rhel-5.1-server-x86_64-dvd.iso  192.168.0.202:/tmp/
root@192.168.0.202's password: 
rhel-5.1-server-x86_64-dvd.iso                                                    100% 3353MB  41.4MB/s   01:21    

real    1m24.162s
user    0m35.007s
sys     0m13.455s

[root@mailserver ~]#  netstat -i
Kernel Interface table
Iface       MTU Met    RX-OK RX-ERR RX-DRP RX-OVR    TX-OK TX-ERR TX-DRP TX-OVR Flg
bond1      1500   0  3436804      0      0      0  1774259      0      0      0 BMmRU
eth0       1500   0     3962      0      0      0      773      0      0      0 BMRU
eth2       1500   0  3436804      0      0      0  1774254      0      0      0 BMsRU
eth3       1500   0        0      0      0      0        5      0      0      0 BMsRU
lo        16436   0     3071      0      0      0     3071      0      0      0 LRU
############## 没有丢包,只走单网卡
结论:

从以上结果显示,单就速度来说的确不做绑定单网卡速度最快,但是没有容错能力。其次是绑定后的FailOver模式,但是该模式会存在一定的问题。而mode=6的负载均衡模式会丢包,比较危险。

mode=0的负载均衡模式貌似并不能加大带宽,但是对于提高最大的可用性来说是最好的选择了

本文转载自:http://myhat.blog.51cto.com/391263/664309

s
粉丝 3
博文 260
码字总数 0
作品 0
广州
私信 提问
Centos7 / RHEL 7 双网卡绑定

1. 简要 双网卡绑定技术在centos7中使用了teaming技术,而在rhel6/centos7中使用的是bonding技术, 在centos7中双网卡绑定既能使用teaming也可以使用bonding,这里推荐使用teaming技术,方便...

姗姗来迟z
2017/06/09
0
0
Linux 配置双网卡绑定,实现负载均衡

Linux 配置双网卡绑定,实现负载均衡 1、Bond的工作模式 Linux bonding驱动提供了一个把多个网络接口设备捆绑为单个的网络接口设置来使用,用于网络负载均衡及网络冗余。 bonding一共有7种工...

巴利奇
2018/10/30
0
0
FreeBSD6.3下双网卡绑定详细过程

这几天公司里的服务器要用bonding,主要是做双网卡的冗余,网上说的最多的就是《FreeBSD上双网卡绑定提高带宽的做法》,研究了一下,把结果 给大家说说, linux的很简单,这里就不说了,照网...

oschina
2009/01/06
696
0
centos6.5 双网卡绑定

双网卡绑定主要是为了实现设备容错,负载均衡。 1,检查网络配置信息,如下: 2,编辑eth0网卡: 3,编辑eth1网卡: 4,创建一个新配置文件ifcfg-bond0: 5,编辑modprobe.conf文件,添加配置...

haokuan521
2018/07/02
0
0
配置Linux服务器Samba+多硬盘+多网卡

服务器的硬件:一台865的主板,两块3COM的网卡,两块硬盘加速卡,八块硬盘 服务器的配置要求:运行平台是redhat9.0 工作站上面运行的是windows系统,在工作站上面要通过目录共享(samba) 、h...

JavaGG
2009/05/07
1K
0

没有更多内容

加载失败,请刷新页面

加载更多

Spring使用ThreadPoolTaskExecutor自定义线程池及实现异步调用

多线程一直是工作或面试过程中的高频知识点,今天给大家分享一下使用 ThreadPoolTaskExecutor 来自定义线程池和实现异步调用多线程。 一、ThreadPoolTaskExecutor 本文采用 Executors 的工厂...

CREATE_17
今天
5
0
CSS盒子模型

CSS盒子模型 组成: content --> padding --> border --> margin 像现实生活中的快递: 物品 --> 填充物 --> 包装盒 --> 盒子与盒子之间的间距 content :width、height组成的 内容区域 padd......

studywin
今天
7
0
修复Win10下开始菜单、设置等系统软件无法打开的问题

因为各种各样的原因导致系统文件丢失、损坏、被修改,而造成win10的开始菜单、设置等系统软件无法打开的情况,可以尝试如下方法解决 此方法只在部分情况下有效,但值得一试 用Windows键+R打开...

locbytes
昨天
8
0
jquery 添加和删除节点

本文转载于:专业的前端网站➺jquery 添加和删除节点 // 增加一个三和一节点function addPanel() { // var newPanel = $('.my-panel').clone(true) var newPanel = $(".triple-panel-con......

前端老手
昨天
8
0
一、Django基础

一、web框架分类和wsgiref模块使用介绍 web框架的本质 socket服务端 与 浏览器的通信 socket服务端功能划分: 负责与浏览器收发消息(socket通信) --> wsgiref/uWsgi/gunicorn... 根据用户访问...

ZeroBit
昨天
10
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部