科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网存储频道存储网络16Gb/s FC:虚拟化、SSD挑战存储IO

16Gb/s FC:虚拟化、SSD挑战存储IO

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

Emulex LPe16002的单端口最大IOPS超过了100万,而上一代8Gb/s FC HBA只有大约20-25万的水平。毕竟几年前推出时芯片的处理能力有限,还有一个原因,就是现在和过去的主流高端存储系统性能瓶颈通常不出现在单个光纤通道接口上,但进入SSD的时代恐怕就不同了。

作者:黄亮 来源:CBSi企业解决方案中心【原创】 2011年10月24日

关键字: 光纤通道 XE201 10GbE Emulex

  • 评论
  • 分享微博
  • 分享邮件

在本页阅读全文(共2页)

CBSi企业解决方案中心 10月24日 北京报道(文/黄亮)

多核服务器虚拟化、SSD挑战存储IO

在今年5月的“单芯片16Gb FC+10GbE:加速融合网络过渡”一文中,笔者分别谈到了博科Brocade 1860 Fabric Adapter——兼容16Gb/s FC和10GbE两种端口的HBA卡,以及Emulex XE201多光纤架构I/O控制器。随着时间的推移,16Gb/s光纤通道SAN存储网络的脚步在慢慢向我们走近。

16Gb/s FC:虚拟化、SSD挑战存储IO 

现在,我们看到QLogic和Emulex也公布了自有品牌(相对于OEM业务而言)的16Gb/s FC HBA卡。在QLogic的网站(见上图),2600系列适配器的正式出货时间定在明年早期;而Emulex则宣称其LightPulse LPe16000系列16G FC适配器将于今年第4季度普遍上市。

前不久,Emulex企业营销副总裁Shaun Walsh先生来到北京与媒体和分析师进行了面对面的交流,探讨云数据中心的发展趋势,并分享了Emulex最新产品与战略动态。

16Gb/s FC:虚拟化、SSD挑战存储IO 

Emulex企业营销副总裁Shaun Walsh先生

Shaun Walsh于2008年加入Emulex,担任企业营销副总裁。他负责公司的品牌建设,对外产品解决方案营销,OEM和渠道营销以及市场传播。Shaun Walsh曾先后在昆腾、Overland Storage、JNI、STEC、Dot Hill和QLogic等多家企业担任主管及高级经理的职位,拥有佩伯代因大学管理学理工科学士学位。

关于16Gb/s光纤通道相关产品技术,我曾在之前文章中写过的就不做重复。本文则希望更加全面地体现出16Gb FC的价值,在数字翻番的背后,它给当今的数据中心存储网络将带来什么样的影响?

16Gb/s FC:虚拟化、SSD挑战存储IO 

虚拟机密度要求更高的I/O吞吐量(调查数据来自ESG,2011年)

上图中我们看出,每台物理x86服务器上的虚拟机数量将由目前的5~10个所占比例最大,增加到24个月之后的11~25和大于25个为主。其背后的主导因素正是服务器CPU处理能力(特别是核心/线程数量)和内存容量的增加。

举例来说:如果今天新采购服务器,最常见的配置应该是双路6核心的Intel Xeon 5600系列,两个CPU一共12核心/24线程,而等到明年初发布至强E5-2400/2600之后,这个数字可能就会增加到16核心/32线程。“服务器虚拟化增加了数据中心内的网络流量(30%)”这句话绝对不是空穴来风,正是这个原因,高速的万兆以太网、16Gb/s光纤通道乃至未来的40GbE才显出它们的重要性。

16Gb/s FC:虚拟化、SSD挑战存储IO 

快速的SSD存储技术,服务器主机上不断提升的QPI互连、内存带宽,对更快、更好的网络HBA提出了要求。巧合的是,戴尔存储副总裁和总经理Darren Thomas在Dell World上的讲话中提到,“目前的PCIe(即将应用的3.0)总线和光纤通道一样快,大约8Gb/s,英特尔下一代处理器内存总线将快100倍,这是一次很大的提高,这意味着服务器将等待网络存储。”

实际情况是,40Gb/s(现已推出56Gb/s FDR)InfiniBand已经等了PCIe 3.0“很多年”,而高速的PCI Express I/O连接对于未来的32Gb/s光纤通道(如果推出的话)和40Gb/s以太网也是必不可少的。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章