闪迪公司今日宣布推出广泛支持VMware Horizon 6和Virtual SAN的一系列Horizon 6虚拟桌面基础架构 (VDI) 和终端用户计算 (EUC) 解决方案,这些解决方案采用了屡获殊荣的ULLtraDIMM固态硬盘(SSD) 和Fusion ioMemory。
ULLtraDIMM和Fusion ioMemory搭配VMware Horizon 6,使客户能够部署高性能、经济高效的虚拟桌面基础架构解决方案,并提高虚拟桌面密度。 此外,闪迪通过固态硬件和软件技术的整合,使企业组织能够更加灵活地选择适合自身环境的部署选项,减少使用障碍。
闪迪企业存储解决方案高级副总裁兼总经理John Scaramuzzo表示:“软件定义的存储使企业客户能够打破数据中心计算、存储和网络层之间的传统阻碍。我们可以创建新的模型,利用软件提高现有存储基础架构的投资回报率。针对Horizon 6和Virtual SAN的解决方案是闪迪如何与VMware持续合作的最好例证。这些解决方案仅仅是我们与VMware 合作为虚拟桌面基础架构部署带来的众多改进的开端。”
闪迪的ULLtraDIMM 内存通道存储解决方案可提升虚拟化环境的性能和终端用户生产效率。 由于其位置与服务器CPU相关、具有五微秒的写入延迟,而且一般部署8个ULLtraDIMM 并行运行可使性能扩展达到100 万IOPS,所以ULLtraDIMM可显著降低VDI启动风暴带来的影响。 此外,相对于传统磁盘存储解决方案,虚拟桌面基础架构桌面池的创建速度可加快 5 倍。采用 ULLtraDIMM 的服务器可提高每台主机的虚拟桌面基础架构密度,缩短虚拟桌面基础架构响应时间,并降低每个虚拟桌面基础架构会话的成本。
Fusion ioMemory虚拟桌面基础架构解决方案搭配支持闪存的SAN存储一同使用时,可提供高达90%的SAN负载分流能力,且每台服务器的桌面密度可提高16倍。由此,可增强虚拟桌面基础架构部署的终端用户体验,并使组织能够显著扩展其虚拟桌面基础架构环境,同时降低每个虚拟桌面的总成本。 这些解决方案可从几百个虚拟桌面扩展到数千个虚拟桌面,而且不会增加VMware环境的复杂性。
VMware终端用户计算部门营销副总裁Erik Frieberg表示:“我们对闪迪推出支持闪存的新解决方案感到非常兴奋,这些解决方案能帮助我们的共同客户提高虚拟机性能密度,无论客户采用的部署方案是使用SAN、服务器还是Virtual SAN,都能获得快速、经济高效且高度可扩展的虚拟桌面。我们期待与闪迪建立合作,共同推动所有细分市场采用经济高效的EUC/虚拟桌面基础架构。”
三种将ULLtraDIMM和Fusion ioMemory与 Horizon 6和Virtual SAN结合在一起的新参考架构将于VMworld 大会上进行演示,它们分别是:
· 服务器ULLtraDIMM
该演示将通过针对Horizon 6的8节点ULLtraDIMM SSD配置方案,重点介绍利用超低延迟、高性能配置的虚拟桌面基础架构部署的优势。 此外,演示中还将说明ULLtraDIMM如何轻松应对极具挑战的虚拟桌面基础架构问题,包括提供快速、一致的启动时间。
· Virtual SAN
该现场演示将通过针对Horizon 6的3节点Virtual SAN集群配置方案,重点介绍闪迪企业级固态硬盘组合能为用户虚拟桌面基础架构工作负载巨大的组织带来哪些益处。
· SAN存储
此参考架构将向使用 SAN 存储的客户展示一种利用Fusion ioMemory虚拟桌面基础架构解决方案和支持闪存的SAN存储的配置方案。 这种配置可使虚拟桌面密度提高16倍,使单个半机架扩展到能够容纳1500个高速、一致的虚拟桌面会话,从而确保在“启动风暴”期间实现快速、一致的启动时间。
好文章,需要你的鼓励
Snap 推出 Lens Studio 的 iOS 应用和网页工具,让所有技能层次的用户都能通过文字提示和简单编辑,轻松创建 AR 镜头,包括生成 AI 效果和集成 Bitmoji,从而普及 AR 创作,并持续为专业应用提供支持。
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。