扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
在本页阅读全文(共3页)
服务器也玩Thunderbolt?下一代10GbE融合网络
令我们感到比较意外的是,Intel和苹果等厂商推动的Thunderbolt高速接口,在本次IDF上居然演示了服务器之间的网络连接。上图中我们看到,超过500MB/s(4Gbit/s)的单向实际传输率相对于10Gb/s的理论值来说效率并不算高,不过Intel工作人员表示这只是初期的原始测试模型,还有很大的优化空间。至于连接距离和线缆的成本,基本可以参照铜缆/光纤以太网方案。
最重要的一点是,Intel认为该方案的整体成本将大大低于万兆以太网。毕竟它传输的只是PCIe信号,不需要更多的协议转换,我们进而想到会不会有支持这种“Thunderbolt”标准的交换机出现?就像这几年有些厂商推出的PCIe以及SAS Switch那样。
代号为Twinville的Intel下一代双端口10GBASE-T以太网控制器,相对于现有X-520系列万兆网卡使用的82599芯片而言,Twinville在单芯片中集成了10GBASE-T PHY(物理层),能够简化PCB布线的复杂度并降低功耗(不再像Intel Ethernet Server Adapter X520-T2那样需要散热片),为Xeon E5以及未来的服务器平台板载万兆网卡(LOM)设计带来了方便。
Intel Twinville控制器的正式名称将是X540,其40nm制造工艺比Emulex正式发布不久的OCE11000系列第三代CNA(融合网络适配器)使用的65nm BladeEngine 3芯片更先进。
SFP+直连铜缆接口的Intel万兆网卡,还有线缆
上图就是我们以前不只一次提到过的SFP+直连铜缆,特别是在10GBASE-T发展不成熟的时期,它能够在短距离(不超过10米)内实现低于光纤的连接成本。SFP+直连铜缆的收发器模块和线缆是一体化的设计。
Intel也开始像Emulex等厂商那样宣传自己10GbE网卡的存储性能了,上面演示的这张ppt中提到的正好是iSCSI而不是FCoE(以太网光纤通道)。单一端口百万(1,030,000)IOPS超过了Emulex iSCSI协议硬件卸载支持的60万,而4KB数据块50万的性能表现也不落后于当今的领先水平。更让我们感兴趣的是,Intel还在该展台旁边的机柜里演示了完整的服务器—交换机—存储FCoE连接解决方案(见下图),只可惜不是端到端FCoE。
IDF2011现场演示FCoE连接的机柜,顶部有一台思科Nexus 5000系列交换机,而最下面是著名的固态存储系统厂商Texas Memory Systems(TMS)的RamSan。
已经不是TMS主流产品的RamSan-400固态存储系统,它使用了128GB RAM(内存)作为存储介质,现在该公司已经以NAND闪存产品为主。RamSan-400的主机接口为4Gb/s Fibre Channel,单台设备能够提供400K(40万)的读写IOPS性能。在这里通过光纤通道连接到思科交换机再转换为FCoE协议。
支持FCoE存储协议的Cisco Nexus 5020万兆以太网交换机,在它上方还有一台KVM切换器。Nexus 5020左侧10GbE端口上插着黑色线缆连接下方的服务器(万兆网卡/FCoE连接),而右侧4条光纤则是下行到TMS存储的Fiber Channel接口。
还记得我们曾经在去年7月大胆预测FCoE在万兆网卡上会成为免费蛋糕吗?而今Intel推广的Open FCoE技术标准,目标是让所有10GbE适配器端口都免费支持FCoE协议。不过一方面是主要通过软件来实现(耗费CPU处理资源,但性能不见得差),另外还有赖于操作系统层面的支持,目前高版本Linux内核对Open FCoE内嵌支持比较好,而Windows和VMware ESX应该暂时还需要安装Intel的软件启动器(Initiator)。对于Open FCoE的好坏,Intel和Emulex、QLogic等传统FC HBA厂商各执一辞,孰优孰劣在这里暂不详细讨论,有时间再讲。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者