浏览 589
云负载均衡是指将客户端请求分发到在云环境中运行的多个应用服务器。与其他形式的负载均衡一样,云负载均衡能够最大限度地提高应用的性能和可靠性;相比本地资源的传统负载均衡,其优势(通常)是成本更低,并可以轻松地根据需求来扩展或收缩应用。
有关负载均衡器的基本信息,请参阅《成本比硬件负载均衡器低 80%》。
如今,越来越多的企业(尤其是小型企业)都在云中运行各种应用。企业可能会使用基于云的 CRM(如 Salesforce.com)存储客户信息,使用基于云的 ERP 系统跟踪产品数据,使用网络托管厂商(如 Google)托管网站,并使用 Amazon Elastic Compute Cloud (EC2) 运行少量定制的应用。推荐的作法是将负载均衡器服务器与所负载均衡的资源部署在同一环境中。因此,当某个公司的大部分计算基础架构都托管在云中时,在云中运行负载均衡器也是很有必要的。
传统的负载均衡解决方案依赖数据中心内的专有硬件,并且需要一支经验丰富的 IT 团队来进行系统的安装、调整和维护。只有拥有大量 IT 预算的大公司才能受益于改进的性能和可靠性。在云计算时代,基于硬件的解决方案还有一个严重缺陷,那就是它们不支持云负载均衡,因为云基础架构厂商通常不允许在其环境中使用客户的硬件或专有硬件。
幸运的是,基于软件的负载均衡器能够以更低的成本提供基于硬件解决方案的性能和可靠性优势。由于它们在商用硬件上运行,即使是小公司也能够负担得起。它们可以像其他任何软件应用一样在云中运行,是云负载均衡的理想之选。
云负载均衡的优势主要体现在云本身的可扩展性和全局性上。
在云端扩展的便捷性和速度意味着,企业只需在一组应用实例前放置一个可根据需求快速自动扩展的云负载均衡器,即可轻松处理流量峰值(如“双十一”[LK1] 的流量),并且不会降低性能。
在全球多个云中心托管应用的能力可以提高可靠性。举例来说,如果美国东北部在遭受暴风雪袭击后发生停电,云负载均衡器可以将流量从该地区托管的云资源引导到在该国其他地区托管的资源。
按点赞数排序
按时间排序