Nimble Storage联合创始人、工程副总裁Varum Mehta本周一预测说,一旦戴尔完成了对EMC规模达620亿美元的收购,戴尔-EMC的销售人员将会面临出售戴尔服务器而不是思科UCS服务器的“巨大压力”。
“他们将面临着售卖戴尔集成堆栈的巨大压力,”Mehta在2016 GreenPages Cloudscape Summit大会接受采访时这样表示。“他们希望售卖一个集成的堆栈。他们收购EMC不是为了售卖更多的思科服务器。我认为这是未来他们的重点。我认为未来与思科的关系将会越来越疏远。”
这个关于EMC与思科关系出现裂缝的预测将会直接影响VCE融合基础设施的合作,而这为Nimble与思科更紧密集成带来了机会,Mehta这样表示。
“我们很乐意思科更多地售卖Nimble产品而不是EMC产品,”他说。“我认为这对于Nimble来说是个机会,如果我们很好地打出自己手上的牌,我们与思科的业务就可以实现更多增长。”
Nimble与思科已经有3年的稳固合作关系,出售基于思科UCS的全闪存阵列,而且这部分业务的增幅达到了两位数,Mehta表示。
GreenPages首席执行官Ron Dupler表示,这个市场的所有细分领域都出现了颠覆,出现了很多像Nimble这样初创公司的新技术。“我们与Nimble——作为新一代厂商之一——取得了巨大的成功。他们有强大的平台和能力,客户对他们青睐有加。”
戴尔和EMC的高管坚持认为,一旦戴尔和EMC合并之后,戴尔主要竞争对手思科会处于一个显眼的位置。
7月,戴尔首席运营官、企业解决方案总裁Marius Haas表示,戴尔“未来将保持与思科稳固的合作关系。在VCE Vblocl架构方面双方还有很多工作要做,不希望推出这种合作关系。”
戴尔董事会主席、首席执行官Michael Dell在1月致客户和合作伙伴的信中表示:“在与戴尔合并之后,VCE与思科的紧密关系将持续下去。Vblock将继续遵循思科的计算和网络路线图以及EMC的存储路线图,将最新的技术带给VCE客户。”
“我们承诺一旦戴尔和EMC合并我们仍将保持合作关系,”一位戴尔新闻发言人在一封请求就Mehta言论发表评论时这样写道。
思科并没有对此做出回应,但是思科首席执行官Chuck Robbins也曾强调过思科与EMC关系的重要性。
“这是我们义不容辞的工作,”Robbins在去年谈及戴尔与EMC、思科的关系时这样表示。
今年年初,作为VCE总裁的Chad Sakac表示:“来自客户各方面的所有迹象表明,UCS是我们要走的路,思科Nexus硬件是我们要走的路,如果这一点搞混了,我们和思科都会发疯的。”
毫无疑问,EMC和VCE是乐于开始使用思科服务器的,而且EMC与VCE之间的关系一直有些紧张,包括VCE在一年前推出了基于白盒服务器的VxRack超融合系统,思科开发了自己基于软件初创公司Springpath的超融合解决方案。
有不少思科合作伙伴都敦促思科收购一家存储公司,更积极地与戴尔-EMC、HPE相竞争。
“一个主要问题是,思科是否会收购一家存储公司,”Mehta说。“作为一个外部观察者,我很期待看到后续如何进展,我无法对此进一步评论。目前,他们都继续保持合作。”
Mehta说,至于思科将如何对戴尔-EMC以及HPE等厂商积极地将集成融合堆栈引入市场做出回应,这一点还有待观察。
思科将与“拥有完整集成堆栈的大型公司”相竞争,Mehta说。“我们要看看结果如何。”
思科在三年前收购了存储厂商Whiptail,但是在把它整合到自己的UCS服务器时遇到困难。
Mehta表示,他认为思科对与Springpath合作采取谨慎态度,后者是思科Hyperflex超融合产品的基础,思科用这种“试水”的方法看看Springpath拥有能够扩展思科UCS所需要的能力。
“我们就爱那个看到,思科与Springpath能否成功,或者他们是否需要做些其他事情,”他说。“不管我们与思科的关系是否继续走强,我们都会在支持产品线方面增加彼此的关系。”
戴尔还将面临处理戴尔与EMC存储产品线之间产品重叠的问题,Mehta说。“你会看到这样的情况,戴尔Compellent和EMC VNX将针锋相对,你可以想象戴尔的销售和EMC的销售会在客户层面上发生摩擦,”他说。“我肯定已经发生了一些问题,他们不得不合理解决这个问题。”
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。