思科与联想在其超融合系统内加入了英特尔的Optane缓存驱动器。此外,这家交换机巨头还向其中添加了英伟达 GPU支持,以期能够为人工智能/机器学习应用程序提供面向超融合系统的访问能力。
Optane与NVMe驱动器的加入将能够让这类超融合系统的性能表现优于全闪存的SAS/SATA SSD,并借此压制基于硬盘的替代方案——至少从目前来看,这也确实符合超融合系统的定位。
思科的HyperFlex HX220c M5 AII NVMe节点选用了两块Optane XPoint SSD(全名为英特尔DC P4800X SSD),这两块Optane XPoint SSD分别用于缓存与日志写入。
基本上,HX220c属于一台可搭载一到两块Xeon SP处理器的UCS 1U C220 M5机架式服务器。该机架式服务器最多可容纳8块容量为1 TB或4 TB的英特尔3D NAND NVMe SSD驱动器,这也就意味着其最大存储容量可达32 TB。更多详细信息请参阅数据表(PDF)。
思科将HyperFlex划入了高性能超融合基础设施的全新时代,其应用对象为大部分延迟敏感型工作负载。因此,HyperFlex中没有提供任何系统级别的性能参数。
英特尔方面在其博客上针对HyperFlex进行了介绍,思科也就相关内容发表了评论。
Optane与NVMe SSD支持能力是思科HyperFlex 3.5发行版本中的重要组成部分。思科公司表示,其中还增添了对英伟达 Tesla V100 GPU支持,从而让HyperFlex能够适用于人工智能与机器学习应用程序。尽管这份数据表(请参阅此处)中没有介绍特定的HyperFlex 英伟达配置,但思科在一篇博文中表示,HX240c可装配一到两块由思科合作伙伴ePlus提供的V100 GPU。
配有英伟达GPU的HyperFlex。
除此之外,v3.5还能够支持SAP应用程序,并可通过思杰云服务与本机灾难恢复功能实施VDI部署。
在迎来GPU与Optane/NVMe SSD支持能力之后,HyperFlex足以跻身当前以x86为基础且运行速度最快的两套超融合系统之一——另一套享有此誉的是由联想推出的超融合系统。
联想已经在其ThinkSystem服务器产品线的基础上完成了vSAN ReadyNodes的生产,并且该系列的服务器均安装有Optane SSD。值得一提的是,其基础系统为SR630(1U/2插槽)与SR650(2U/2插槽)Xeon SP服务器。
根据联想方面的声明,vSAN ReadyNodes的虚拟机密度增量达到了50%以上。此外,其性价比提升了37%,并且还能够以高事务处理速度运行应用程序。
然而,上述产品信息仅来自于一篇华而不实的博文——文章中并没有介绍任何与产品可用性、命名与定价相关的信息。
不过,这篇博文中展示了一张VX系列的图片。具体如下所示:
联想VX系列的vSAN ReadyNodes是一套整合了预集成与预配置的超融合系统。入门级别的VX 2000系列适用于中小型企业。
VX 3000系列为通用型1U与2U单节点系统,适用于计算量较大的应用程序,例如VDI;VX 5000是针对电子邮件、大数据与分析的存储密集型2U单节点产品;最后,高端VX 7000则属于适用于数据库与协同工作负载的2U单节点系统。
VX 3000与VX 7520均可采用全闪存配置,但目前官方的数据表中尚未提及Optane。我方已就相关问题与联想方面取得了联系,希望能够获取更多详细信息。
相较于磁盘、混合闪存/磁盘与SAS SSD超融合设备,采用了Optane缓存与NVMe闪存驱动器的超融合设备将可能在以存储访问为中心的工作负载环境中展现更大的性能优势。
戴尔EMC、HPE与NetApp很可能会紧随思科与联想的引领而开创新型超融合系统。此外,其他超融合软件厂商也将尽其所能为Optane缓存与NVMe驱动器提供相应支持。
总体而言,针对GPU的通用型超融合支持已经成为未来的发展趋势。对此,我们相信该领域的各主要参与者也会依葫芦画瓢,即选择在超融合系统中添加对英伟达设备的支持,进而防止思科在这轮变革当中独占鳌头。
好文章,需要你的鼓励
Citrix宣布通过XenServer产品重返主流虚拟化市场,尽管该公司承认产品尚未完全就绪。云软件集团表示XenServer正扩大支持范围以涵盖各类工作负载。Citrix早在2010年代初就基本放弃了XenServer作为主流虚拟化产品的定位。产品管理高级总监认为当前虚拟化市场正经历前所未有的变化,特别是主要厂商的激进许可变更给IT预算带来压力,为Citrix提供了重返市场的机会。
这项由加州大学伯克利分校、香港大学和Adobe联合开展的研究,开发了名为X-Planner的AI图像编辑规划系统,解决了现有AI工具难以理解复杂编辑指令的问题。该系统能将"让图片看起来像夏天"等自然语言指令智能分解为具体编辑步骤,并自动生成精确的控制信息,显著提升了AI图像编辑的准确性和可控性。
Docker公司发布重大新功能,旨在简化智能体AI应用的构建、运行和部署。公司扩展了Docker Compose工具以支持AI智能体和模型的大规模部署,并推出Docker Offload服务,允许开发者将AI工作负载转移到云端。新功能还支持模型上下文协议网关的安全连接,并与谷歌云、微软Azure等合作伙伴集成。
本研究提出了VLM2Vec-V2多模态嵌入模型和MMEB-V2评估基准,首次实现对文本、图片、视频和文档的统一理解。该模型在78个任务上全面领先现有基线,展示了从专门化向通用化发展的重要趋势,为多媒体内容理解、智能搜索和人机交互带来突破性进展。