虚拟机(VM)这个术语最早出现于20世纪60年代。自那时起,各种各样的虚
拟化技术被用作一种高效的机制。最新研究发现,2010午,有近60% 的数据中心
在进行虚拟化部署扩张。
    虚拟化网络基础架构已有多年的历史。Ethernet VLANs IPSec、SSL VPNs及
通过MPLS或虚拟路由实现的L3 VPNs 等领先技术都是经验证切实可行的网络虚拟
化技术的典型代表。这些技术确保各类用户共享一组物理资源,因而保证了设备
所需的隔离、性能和安全性。此外,所有这些优势也适用于应用主机平台。服务
器虚拟化机制目前已经很常见而且服务器虚拟化被视为数据中心网络和计算融合
的关键。根据研究公司 Gartner的研究显示,到2012年,将部署大约5800万台虚
拟机。
    用程序的末充分利用的物理服务器正在被支持多用户操作系统和应用实例的
少数系统所替代。该虚拟机方案能显着提高效率、能源利用率以及cpu 和内存等
昂贵硬件资源的可用性。一台什么是服务器虚拟化?服务器一个应用程序" 的模
式即将成为历史。
    服务器虚拟化如何改变数据中心的设计?
    为实现数据中心整合的优势,很多安装单个操作系统(operating system,
OS)
    和(通常安装)一个托管应数据中心基础架构的深层变革对于部分网络基础
架构和虚拟服务器本身来说意义重大。早在出现这种虚拟化服务器模式之前,应
用程序与物理计算资源捆绑在一起,所需的全部网络功能均在服务器外部完成。
    分组交换和路由选择等操作以及防火墙和入侵防御等网络安全功能均在远离
主机服务器端的离散设备层中完成。此外,服务器基础架构通常采用用来均衡分
散主机平台流量的应用程序负载均衡器安装在前端。该网络基础架构的扩展将致
使极为复杂的高耗电数据中心体系结构的产生。
    当IT管理者对主机资源进行虚拟化时,需要将应用程序与服务器的比例由1
:1 调整为N :l ,这一调整对服务器本身来说意义重大,并会改变我们的思维
万式和数据中心的体系结构产品。目前这一代多核x86 服务器的单一CPU 晶粒上
有6 个或更多内核,在未来几年,内核密度有望达到8 或12英寸。这些服务器能
够支持单台物理设备上的多个应用性序。在利用单台物理服务器支持多个应用程
序时,IT管理者和架构师必须考虑这一根本性调整是如何影响网络的。除了具备
应用程序和控制平面处理功能之外,这一调整还要求之前内置在 x86服务器外部
的网络和安全功能必须在虚拟化多核平台内部压缩,确保在分散的硬件中实现同
一套功能。由于封包分类、甚于流量的负载均衡(load balancing)、主动流量
状态管理和流量抑制(flow pinning)L2交换、L3转发和Qos 处理等特殊处理功
能过去存在于分散的" 一台主机一个应用程序(1 :1 host-to-application )
    模式下,必须在分散设备外部将它们压缩到虚拟化X86 服务器中。
    具体来讲,当服务器端接收到流量时,必须将各种数据包处理和安全工作荷
载应用于数据,并对数据包进行分类,以确定目标内核/ 应用程序。流量必须配
备适用的安全策略,以避开网络威胁,此外,就IPSec 和SSL 流量而言,还必须
对其进行加密/ 解密。最后,必须制定L2交换决策,将数据包放置于合适的虚拟
机上。
    除了这些要求之外,该处理操作还必须采用有状态的万式进行,以确保属于
相同数据流的数据包能全部到达同一个目标应用程序。
    need a Virtualized Network in here!此处需要部署一个虚拟化网络这种
数据包处理器通常部署在软件中,充当虚拟机管理程序的一个组件,然而多核x86
服务器没有经过优化处理,不能用作网络和安全处理,因而会给设备带来严重的
性能问题,这种仅适用于x86 服务器的基础架构不能捕获数据包和以高的速度
处理数据流,因为数据包处理、中断处理、安全处理、分组及转发等全部任务都
在浪费宝贵的CPU 周期。执行软件中的各类任务会导致服务器性能低下和耗电量
增加(1 吉比特每秒的吞吐量),这最终意味若应用程序的性能下降。因此,最
终结果是,这种新的体系结构需要更多服务器来支持计算负荷,因而无法达到指
望利用虚拟化达到的预期效果。
    进入I/O 虚拟化技术虚拟化网络与虚拟化服务器之间缺失的链路是网络接口
与各虚拟机的I/O.一种创新的虚拟化服务器体系结构可以跨越一条高性能、具有
虚拟化感知能力的 PCIe 通信路径同时部署工作负载经优化的网络流处理器(network
flow processors ,NEP )和x86 多核处理器。网络流处理器(network flow processors,
NFP )对x86 服务器的网络和安全处理工作进行基于硬件的负载分流,确保将所
有CPU 周期还给处理器,并确保处理器集中实施应用程序和控制平面处理。该体
系构支持以极高速率20Gbps甚至更高)向虚拟机高效传输数据。
    Load Balancer :负载均衡器;Classifier/Flow State :分类器/ 流量状
态 L2 Switch:L2交换机这些专用的数据流处理器经过优化处理,可对通用多核
cpu 繁重的工作量逆行负载分流,并能够处理底层数据包处理任务和加快高层数
据流及应用层处理速度。这一加速体系结构采用网络优化的数据流处理器内核,
对数据包进行分类、有状态的数据流分析、深层数据包检测、加密以及基于流量
的动态负载均衡。此外,将数据流解复用到指定虚拟机的主要功能将在数据流处
理器中实施,而且L2交换不必在虚拟机管理程序中进行。该I/O 虚拟化(IVO )
    技术提供保障带宽、延迟和允许在多个内核和虚拟机中进行流量隔离。没有
1/O 虚拟化(IOV )技术,就不能发挥OS虚拟化的众多优势。
    利用上述想法在数据中心架构产品将使我们能够采用高效和最环保的方式
利用我们稀缺的处理资源,以满足用户对更高带宽的需求。通过上文的介绍,相
信大家对深度解读数据中心虚拟化的网络挑战已经有个初步的了解,多关心关心
科技的发展,有利于我们个人自身的发展进步提高。

虚拟机(VM)这个术语最早出现于20世纪60年代。自那时起,各种各样的虚拟化技术被用作一种高效的机制。最新研究发现,2010午,有近60% 的数据中心在进行虚拟化部署扩张。

虚拟化网络基础架构已有多年的历史。Ethernet VLANs IPSec、SSL VPNs及通过MPLS或虚拟路由实现的L3 VPNs 等领先技术都是经验证切实可行的网络虚拟化技术的典型代表。这些技术确保各类用户共享一组物理资源,因而保证了设备所需的隔离、性能和安全性。此外,所有这些优势也适用于应用主机平台。服务器虚拟化机制目前已经很常见而且服务器虚拟化被视为数据中心网络和计算融合的关键。根据研究公司 Gartner的研究显示,到2012年,将部署大约5800万台虚拟机。

用程序的末充分利用的物理服务器正在被支持多用户操作系统和应用实例的少数系统所替代。该虚拟机方案能显着提高效率、能源利用率以及cpu 和内存等昂贵硬件资源的可用性。一台什么是服务器虚拟化?服务器一个应用程序" 的模式即将成为历史。

 服务器虚拟化如何改变数据中心的设计?
      为实现数据中心整合的优势,很多安装单个操作系统(operating system,OS)和(通常安装)一个托管应数据中心基础架构的深层变革对于部分网络基础架构和虚拟服务器本身来说意义重大。早在出现这种虚拟化服务器模式之前,应用程序与物理计算资源捆绑在一起,所需的全部网络功能均在服务器外部完成。

分组交换和路由选择等操作以及防火墙和入侵防御等网络安全功能均在远离主机服务器端的离散设备层中完成。此外,服务器基础架构通常采用用来均衡分散主机平台流量的应用程序负载均衡器安装在前端。该网络基础架构的扩展将致使极为复杂的高耗电数据中心体系结构的产生。

当IT管理者对主机资源进行虚拟化时,需要将应用程序与服务器的比例由1:1 调整为N :l ,这一调整对服务器本身来说意义重大,并会改变我们的思维万式和数据中心的体系结构产品。目前这一代多核x86 服务器的单一CPU 晶粒上有6 个或更多内核,在未来几年,内核密度有望达到8 或12英寸。这些服务器能够支持单台物理设备上的多个应用性序。在利用单台物理服务器支持多个应用程序时,IT管理者和架构师必须考虑这一根本性调整是如何影响网络的。除了具备应用程序和控制平面处理功能之外,这一调整还要求之前内置在 x86服务器外部的网络和安全功能必须在虚拟化多核平台内部压缩,确保在分散的硬件中实现同一套功能。由于封包分类、甚于流量的负载均衡(load balancing)、主动流量状态管理和流量抑制(flow pinning)L2交换、L3转发和Qos 处理等特殊处理功能过去存在于分散的" 一台主机一个应用程序(1 :1 host-to-application )

模式下,必须在分散设备外部将它们压缩到虚拟化X86 服务器中。

具体来讲,当服务器端接收到流量时,必须将各种数据包处理和安全工作荷载应用于数据,并对数据包进行分类,以确定目标内核/ 应用程序。流量必须配备适用的安全策略,以避开网络威胁,此外,就IPSec 和SSL 流量而言,还必须对其进行加密/ 解密。最后,必须制定L2交换决策,将数据包放置于合适的虚拟机上。

 除了这些要求之外,该处理操作还必须采用有状态的万式进行,以确保属于相同数据流的数据包能全部到达同一个目标应用程序。

need a Virtualized Network in here!此处需要部署一个虚拟化网络这种数据包处理器通常部署在软件中,充当虚拟机管理程序的一个组件,然而多核x86服务器没有经过优化处理,不能用作网络和安全处理,因而会给设备带来严重的性能问题,这种仅适用于x86 服务器的基础架构不能捕获数据包和以高的速度处理数据流,因为数据包处理、中断处理、安全处理、分组及转发等全部任务都在浪费宝贵的CPU 周期。执行软件中的各类任务会导致服务器性能低下和耗电量增加(1 吉比特每秒的吞吐量),这最终意味若应用程序的性能下降。因此,最终结果是,这种新的体系结构需要更多服务器来支持计算负荷,因而无法达到指望利用虚拟化达到的预期效果。

 进入I/O 虚拟化技术

虚拟化网络与虚拟化服务器之间缺失的链路是网络接口与各虚拟机的I/O.一种创新的虚拟化服务器体系结构可以跨越一条高性能、具有虚拟化感知能力的 PCIe 通信路径同时部署工作负载经优化的网络流处理器(networkflow processors ,NEP )和x86 多核处理器。网络流处理器(network flow processors,NFP )对x86 服务器的网络和安全处理工作进行基于硬件的负载分流,确保将所有CPU 周期还给处理器,并确保处理器集中实施应用程序和控制平面处理。该体系构支持以极高速率20Gbps甚至更高)向虚拟机高效传输数据。

Load Balancer :负载均衡器;Classifier/Flow State :分类器/ 流量状态 L2 Switch:L2交换机这些专用的数据流处理器经过优化处理,可对通用多核cpu 繁重的工作量逆行负载分流,并能够处理底层数据包处理任务和加快高层数据流及应用层处理速度。这一加速体系结构采用网络优化的数据流处理器内核,对数据包进行分类、有状态的数据流分析、深层数据包检测、加密以及基于流量的动态负载均衡。此外,将数据流解复用到指定虚拟机的主要功能将在数据流处理器中实施,而且L2交换不必在虚拟机管理程序中进行。该I/O 虚拟化(IVO )

技术提供保障带宽、延迟和允许在多个内核和虚拟机中进行流量隔离。没有1/O 虚拟化(IOV )技术,就不能发挥OS虚拟化的众多优势。

利用上述想法在数据中心架构产品将使我们能够采用高效和最环保的方式利用我们稀缺的处理资源,以满足用户对更高带宽的需求。通过上文的介绍,相信大家对深度解读数据中心虚拟化的网络挑战已经有个初步的了解,多关心关心科技的发展,有利于我们个人自身的发展进步提高。

 

 

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2023-08-16 11:52:17
国际资讯 IDC:2022年中国数据中心服务市场仍处于缓慢修复阶段
预计未来五年,中国数据中心服务市场将以18.9%的复合增速持续增长。 <详情>
2023-08-04 16:08:52
新闻动态 中国移动与青海省政府签署战略合作协议
中国移动将青海作为5G建设的重点区域,加快建设全国领先的5G和“双千兆”网络,加大数据中心和算力网络建设。 <详情>
2023-07-28 17:42:52
国内资讯 秦淮数据“加码”布局张家口 与张家口建投集团签署10年战略合作协议
本次合作协议为期10年,双方将在用地及水资源开发、能源开发、数据中心合作运营、源网荷储一体化项目开展深度合作。 <详情>