数据中心网络性能问题可通过简单的修复重组策略解决。

随着IT向服务器增加I/O与通信密集型应用,数据中心网络压力急剧增加。

预装的千兆内置网卡已经不再能够支撑,并且在大多数情况下万兆以太网卡也可能成为网络瓶颈。

解决日益增加的网络流量问题,方法可不止一种,从廉价的快速修复战略,到高级战略投资与资本重组。新技术可以提高网络容量并改进网络结构,解决骨干网性能瓶颈以及大多数以太网连接问题。在某些情况下,简单的操作,就可以减轻不少压力。

给服务器安装更多的存储

改变数据流是低成本的快速解决网络瓶颈的方法之一。一个例子就是将流量从网络转储转移到服务器内部。

Google将存储本地化到多个服务器上,然后安排这些应用程序使用最近的存储中的数据。这种方式可以让你只需简单添加机柜交换机的端口,甚至只需两台交换机,以此实现结点的双以太网端口连接。

同样还可以给存储结点选择四个或更多端口配置的服务器,通过更多的端口进出流量来解决网络瓶颈。几乎所有数据都是通过机架顶端的交换机,降低延迟,也能大幅度降低与骨干网的数据交互。

数据库

数据库优化方案就不同了。高效的模型是使用动态随机存储存储器(DRAM)的双列直插式内存模块所构成的大型计算池,创建一个内存数据库。理想情况下,IT组织会根据需求购买最新的旗舰级服务器,内存高可达6TB,当然旧服务器一样也要使用。

还有一种用于辅助内存数据库架构的方式,是给服务器配置固态硬盘存储(SSD)。这样可以作为网络存储资源或DRAM的暂存缓冲器使用。两种方法都可以减轻网络负载,但万兆以太网可能跟不上今年内的最新系统,即使同时使用两个端口。

虚拟化

采用x86服务器集群来进行虚拟化十分普遍,但也为自己带来了网络瓶颈问题。臭名昭彰的启动风暴就是网络饱和的一个现象;即使在稳定状态运行时,创建一个新实例也会增加负载,就如千兆字节的数据要从网络存储传输到服务器。

在这种情况下,将传统虚拟化向容器模型庄毅。这意味着放弃能够创建任何操作系统的灵活性,但这通常都不是问题。

采用容器方法,减少网络同学,需要服务器的所有实例都使用相同的(支持容器)操作系统。DRAM空间会因为单一操作系统与应用程序栈而有所节约,还能让实例数增加,并且更快启动。但是如果应用程序实例是网络或者I/O密集型,那么还是会产生压力。

未来的技术方案

采用4万兆以太网(四车道)链路连接交换机十分常见,我们正在寻找10万兆以太网作为万兆以太网替代方案。这种趋势正在不断推进,目前已经推出了25千兆以太网,支持采用四车道,价格也相对低廉,10万兆以太网主要用于存储设备以及交换机之间互联。

数据中心可以使用25千兆以太网用于现有布线机架和交换机之间连接。不幸的是,你无法使用现有的适配器,而必须使用PCIe卡或新增结点。即使如此,替换现有的机顶机架交换机来创建一个10/100千兆以太网络环境,不仅经济,而且还能大幅提升整体集群性能。

这种新技术循序进入市场,也反应了云服务提供商的需求。目前使用25千兆链路的项目一般都不超过12个月,根据IEEE的批准设置纪录时间表。网络接口卡与交换机的生产预计在2015年下半年。

同样还可以使用50千兆以太网双通道管道技术。更快的速度可以容纳更大的服务器以及在内存中运行大数据分析,每台服务器至少要两个连接接口。按照这样的趋势下去,高性能计算拥有大量核心数的CPU或GPU,数据饥饿有可能成为问题,因为将TB级的数据装入内存也需要花上一些时间。

基于软件的修复同样还可以解决网络瓶颈问题。软件定义网络可以为服务器之间通过骨干线路传输负载任务。

随着存储与架构性能的快速增长,网络将是未来十年内创新的前沿,所以演变因该是非常快速的。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-01-09 16:53:00
市场情报 中兴通讯分布式存储+ DPU,加速数据中心转型
存储技术在不断地创新、完善、加速演进,以更好地满足业务的存储需求,但同时也使得存储协议和文件系统越来越繁重。 <详情>
2023-11-17 10:35:56