Board logo

标题: [技术文章] 使用负载均衡技术建设高负载的网络站点 [打印本页]

作者: shillan    时间: 2007-6-1 23:35     标题: 使用负载均衡技术建设高负载的网络站点

作 者: 王波

internet的快速增长使多媒体网络服务器,特别是web服务器,面对的访问者数量快速增加,网络服务器需要具备提供大量并发访问服务的能力。例如yahoo每天会收到数百万次的访问请求,因此对于提供大负载web服务的服务器来讲,cpu、i/o处理能力很快会成为瓶颈。

简单的提高硬件性能并不能真正解决这个问题,因为单台服务器的性能总是有限的,一般来讲,一台pc服务器所能提供的并发访问处理能力大约为1000个,更为高档的专用服务器能够支持3000-5000个并发访问,这样的能力还是无法满足负载较大的网站的要求。尤其是网络请求具有突发性,当某些重大事件发生时,网络访问就会急剧上升,从而造成网络瓶颈,例如在网上发布的克林顿弹劾书就是很明显的例子。必须采用多台服务器提供网络服务,并将网络请求分配给这些服务器分担,才能提供处理大量并发服务的能力。

当使用多台服务器来分担负载的时候,最简单的办法是将不同的服务器用在不同的方面。按提供的内容进行分割时,可以将一台服务器用于提供新闻页面,而另一台用于提供游戏页面;或者可以按服务器的功能进行分割,将一台服务器用于提供静态页面访问,而另一些用于提供cgi等需要大量消耗资源的动态页面访问。然而由于网络访问的突发性,使得很难确定那些页面造成的负载太大,如果将服务的页面分割的过细就会造成很大浪费。事实上造成负载过大的页面常常是在变化中的,如果要经常按照负载变化来调整页面所在的服务器,那么势必对管理和维护造成极大的问题。因此这种分割方法只能是大方向的调整,对于大负载的网站,根本的解决办法还需要应用负载均衡技术。

负载均衡的思路下多台服务器为对称方式,每台服务器都具备等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。然后通过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器都独立回应客户机的请求。由于建立内容完全一致的web服务器并不复杂,可以使用服务器同步更新或者共享存储空间等方法来完成,因此负载均衡技术就成为建立一个高负载web站点的关键性技术。

1、基于特定服务器软件的负载均衡
很多网络协议都支持“重定向”功能,例如在http协议中支持location指令,接收到这个指令的浏览器将自动重定向到location指明的另一个url上。由于发送location指令比起执行服务请求,对web服务器的负载要小的多,因此可以根据这个功能来设计一种负载均衡的服务器。任何时候web服务器认为自己负载较大的时候,它就不再直接发送回浏览器请求的网页,而是送回一个locaction指令,让浏览器去服务器集群中的其他服务器上获得所需要的网页。

在这种方式下,服务器本身必须支持这种功能,然而具体实现起来却有很多困难,例如一台服务器如何能保证它重定向过的服务器是比较空闲的,并且不会再次发送location指令?location指令和浏览器都没有这方面的支持能力,这样很容易在浏览器上形成一种死循环。因此这种方式实际应用当中并不多见,使用这种方式实现的服务器集群软件也较少。有些特定情况下可以使用cgi(包括使用fastcgi或mod_perl扩展来改善性能)来模拟这种方式去分担负载,而web服务器仍然保持简洁、高效的特性,此时避免location循环的任务将由用户的cgi程序来承担。

2、基于dns的负载均衡
由于基于服务器软件的负载均衡需要改动软件,因此常常是得不偿失,负载均衡最好是在服务器软件之外来完成,这样才能利用现有服务器软件的种种优势。最早的负载均衡技术是通过dns服务中的随机名字解析来实现的,在dns服务器中,可以为多个不同的地址配置同一个名字,而最终查询这个名字的客户机将在解析这个名字时得到其中的一个地址。因此,对于同一个名字,不同的客户机会得到不同的地址,他们也就访问不同地址上的web服务器,从而达到负载均衡的目的。
此主题相关图片

例如如果希望使用三个web服务器来回应对www.exampleorg.org.cn的http请求,就可以设置该域的dns服务器中关于该域的数据包括有与下面例子类似的结果:

www1                in                a                 192.168.1.1
www2                in                a                 192.168.1.2
www3                in                a                 192.168.1.3
www                in                cname                www1
www                in                cname                www2
www                in                cname                www3
此后外部的客户机就可能随机的得到对应www的不同地址,那么随后的http请求也就发送给不同地址了。

dns负载均衡的优点是简单、易行,并且服务器可以位于互联网的任意位置上,当前使用在包括yahoo在内的web站点上。然而它也存在不少缺点,一个缺点是为了保证dns数据及时更新,一般都要将dns的刷新时间设置的较小,但太小就会造成太大的额外网络流量,并且更改了dns数据之后也不能立即生效;第二点是dns负载均衡无法得知服务器之间的差异,它不能做到为性能较好的服务器多分配请求,也不能了解到服务器的当前状态,甚至会出现客户请求集中在某一台服务器上的偶然情况。

3、反向代理负载均衡
使用代理服务器可以将请求转发给内部的web服务器,使用这种加速模式显然可以提升静态网页的访问速度。因此也可以考虑使用这种技术,让代理服务器将请求均匀转发给多台内部web服务器之一上,从而达到负载均衡的目的。这种代理方式与普通的代理方式有所不同,标准代理方式是客户使用代理访问多个外部web服务器,而这种代理方式是多个客户使用它访问内部web服务器,因此也被称为反向代理模式。

实现这个反向代理能力并不能算是一个特别复杂的任务,但是在负载均衡中要求特别高的效率,这样实现起来就不是十分简单的了。每针对一次代理,代理服务器就必须打开两个连接,一个为对外的连接,一个为对内的连接,因此对于连接请求数量非常大的时候,代理服务器的负载也就非常之大了,在最后反向代理服务器会成为服务的瓶颈。例如,使用apache的mod_rproxy模块来实现负载均衡功能时,提供的并发连接数量受apache本身的并发连接数量的限制。一般来讲,可以使用它来对连接数量不是特别大,但每次连接都需要消耗大量处理资源的站点进行负载均衡,例如搜寻。

使用反向代理的好处是,可以将负载均衡和代理服务器的高速缓存技术结合在一起,提供有益的性能,具备额外的安全性,外部客户不能直接访问真实的服务器。并且实现起来可以实现较好的负载均衡策略,将负载可以非常均衡的分给内部服务器,不会出现负载集中到某个服务器的偶然现象。

4、基于nat的负载均衡技术
网络地址转换为在内部地址和外部地址之间进行转换,以便具备内部地址的计算机能访问外部网络,而当外部网络中的计算机访问地址转换网关拥有的某一外部地址时,地址转换网关能将其转发到一个映射的内部地址上。因此如果地址转换网关能将每个连接均匀转换为不同的内部服务器地址,此后外部网络中的计算机就各自与自己转换得到的地址上服务器进行通信,从而达到负载分担的目的。
此主题相关图片

地址转换可以通过软件方式来实现,也可以通过硬件方式来实现。使用硬件方式进行操作一般称为交换,而当交换必须保存tcp连接信息的时候,这种针对osi网络层的操作就被称为第四层交换。支持负载均衡的网络地址转换为第四层交换机的一种重要功能,由于它基于定制的硬件芯片,因此其性能非常优秀,很多交换机声称具备400mb-800mb的第四层交换能力,然而也有一些资料表明,在如此快的速度下,大部分交换机就不再具备第四层交换能力了,而仅仅支持第三层甚至第二层交换。

然而对于大部分站点来讲,当前负载均衡主要是解决web服务器处理能力瓶颈的,而非网络传输能力,很多站点的互联网连接带宽总共也不过10mb,只有极少的站点能够拥有较高速的网络连接,因此一般没有必要使用这些负载均衡器这样的昂贵设备。

使用软件方式来实现基于网络地址转换的负载均衡则要实际的多,除了一些厂商提供的解决方法之外,更有效的方法是使用免费的自由软件来完成这项任务。其中包括linux virtual server project中的nat实现方式,或者本文作者在freebsd下对natd的修订版本。一般来讲,使用这种软件方式来实现地址转换,中心负载均衡器存在带宽限制,在100mb的快速以太网条件下,能得到最快达80mb的带宽,然而在实际应用中,可能只有40mb-60mb的可用带宽。
5、扩展的负载均衡技术
上面使用网络地址转换来实现负载分担,毫无疑问所有的网络连接都必须通过中心负载均衡器,那么如果负载特别大,以至于后台的服务器数量不再在是几台、十几台,而是上百台甚至更多,即便是使用性能优秀的硬件交换机也回遇到瓶颈。此时问题将转变为,如何将那么多台服务器分布到各个互联网的多个位置,分散网络负担。当然这可以通过综合使用dns和nat两种方法来实现,然而更好的方式是使用一种半中心的负载均衡方式。

在这种半中心的负载均衡方式下,即当客户请求发送给负载均衡器的时候,中心负载均衡器将请求打包并发送给某个服务器,而服务器的回应请求不再返回给中心负载均衡器,而是直接返回给客户,因此中心负载均衡器只负责接受并转发请求,其网络负担就较小了。
此主题相关图片

上图来自linux virtual server project,为他们使用ip隧道实现的这种负载分担能力的请求/回应过程,此时每个后台服务器都需要进行特别的地址转换,以欺骗浏览器客户,认为它的回应为正确的回应。

同样,这种方式的硬件实现方式也非常昂贵,但是会根据厂商的不同,具备不同的特殊功能,例如对ssl的支持等。

由于这种方式比较复杂,因此实现起来比较困难,它的起点也很高,当前情况下网站并不需要这么大的处理能力。

比较上面的负载均衡方式,dns最容易,也最常用,能够满足一般的需求。但如果需要进一步的管理和控制,可以选用反向代理方式或nat方式,这两种之间进行选择主要依赖缓冲是不是很重要,最大的并发访问数量是多少等条件。而如果网站上对负载影响很厉害的cgi程序是由网站自己开发的,也可以考虑在程序中自己使用locaction来支持负载均衡。半中心化的负载分担方式至少在国内当前的情况下还不需要。


摘自:http://freebsd.online.ha.cn




欢迎光临 逐梦论坛 (http://temp2023.zhumeng.org/) Powered by Discuz! 7.2