思科与联想在其超融合系统内加入了英特尔的Optane缓存驱动器。此外,这家交换机巨头还向其中添加了英伟达 GPU支持,以期能够为人工智能/机器学习应用程序提供面向超融合系统的访问能力。
Optane与NVMe驱动器的加入将能够让这类超融合系统的性能表现优于全闪存的SAS/SATA SSD,并借此压制基于硬盘的替代方案——至少从目前来看,这也确实符合超融合系统的定位。
思科的HyperFlex HX220c M5 AII NVMe节点选用了两块Optane XPoint SSD(全名为英特尔DC P4800X SSD),这两块Optane XPoint SSD分别用于缓存与日志写入。
基本上,HX220c属于一台可搭载一到两块Xeon SP处理器的UCS 1U C220 M5机架式服务器。该机架式服务器最多可容纳8块容量为1 TB或4 TB的英特尔3D NAND NVMe SSD驱动器,这也就意味着其最大存储容量可达32 TB。更多详细信息请参阅数据表(PDF)。
思科将HyperFlex划入了高性能超融合基础设施的全新时代,其应用对象为大部分延迟敏感型工作负载。因此,HyperFlex中没有提供任何系统级别的性能参数。
英特尔方面在其博客上针对HyperFlex进行了介绍,思科也就相关内容发表了评论。
Optane与NVMe SSD支持能力是思科HyperFlex 3.5发行版本中的重要组成部分。思科公司表示,其中还增添了对英伟达 Tesla V100 GPU支持,从而让HyperFlex能够适用于人工智能与机器学习应用程序。尽管这份数据表(请参阅此处)中没有介绍特定的HyperFlex 英伟达配置,但思科在一篇博文中表示,HX240c可装配一到两块由思科合作伙伴ePlus提供的V100 GPU。
配有英伟达GPU的HyperFlex。
除此之外,v3.5还能够支持SAP应用程序,并可通过思杰云服务与本机灾难恢复功能实施VDI部署。
在迎来GPU与Optane/NVMe SSD支持能力之后,HyperFlex足以跻身当前以x86为基础且运行速度最快的两套超融合系统之一——另一套享有此誉的是由联想推出的超融合系统。
联想已经在其ThinkSystem服务器产品线的基础上完成了vSAN ReadyNodes的生产,并且该系列的服务器均安装有Optane SSD。值得一提的是,其基础系统为SR630(1U/2插槽)与SR650(2U/2插槽)Xeon SP服务器。
根据联想方面的声明,vSAN ReadyNodes的虚拟机密度增量达到了50%以上。此外,其性价比提升了37%,并且还能够以高事务处理速度运行应用程序。
然而,上述产品信息仅来自于一篇华而不实的博文——文章中并没有介绍任何与产品可用性、命名与定价相关的信息。
不过,这篇博文中展示了一张VX系列的图片。具体如下所示:
联想VX系列的vSAN ReadyNodes是一套整合了预集成与预配置的超融合系统。入门级别的VX 2000系列适用于中小型企业。
VX 3000系列为通用型1U与2U单节点系统,适用于计算量较大的应用程序,例如VDI;VX 5000是针对电子邮件、大数据与分析的存储密集型2U单节点产品;最后,高端VX 7000则属于适用于数据库与协同工作负载的2U单节点系统。
VX 3000与VX 7520均可采用全闪存配置,但目前官方的数据表中尚未提及Optane。我方已就相关问题与联想方面取得了联系,希望能够获取更多详细信息。
相较于磁盘、混合闪存/磁盘与SAS SSD超融合设备,采用了Optane缓存与NVMe闪存驱动器的超融合设备将可能在以存储访问为中心的工作负载环境中展现更大的性能优势。
戴尔EMC、HPE与NetApp很可能会紧随思科与联想的引领而开创新型超融合系统。此外,其他超融合软件厂商也将尽其所能为Optane缓存与NVMe驱动器提供相应支持。
总体而言,针对GPU的通用型超融合支持已经成为未来的发展趋势。对此,我们相信该领域的各主要参与者也会依葫芦画瓢,即选择在超融合系统中添加对英伟达设备的支持,进而防止思科在这轮变革当中独占鳌头。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。