作为EMC联邦旗下的融合型基础设施厂商,VCE中“C”所代表的思科公司已经成为一家无甚话语权可言的合作伙伴。与此同时,VCE公司还发布了新的向外扩展产品,并第一次对原本的“思科将始终提供全部网络方案”规划作出了妥协。
其向外扩展产品对于VCE也象征着一种新的起点,因为该公司此前所销售的主要为不具备扩展能力的融合型设备。归功于“VCE Vscale架构”的有力推动,VCE公司终于能够将其vBlock方案与前所未有的大规模设备相结合。VCE公司首席技术官Trey Layton在接受采访时指出,目前对于那些运营着网络级别规模业务的买家来说,上千台机架也早已经不算什么大事。那些需要此种可观设施规模的客户还能够享受到其专门面向存储或者服务器的全新“VCE技术拓展”成果。这里提到的服务器将采用思科UCS,而存储机制则由EMC Isilon充当。不过就当下而言,VCE方面希望能够在“拓展”方面更进一步,将涵盖范畴推广到EMC的全部存储业务领域。
另一项重要变化在于“VxBlock系统”的出现。正如其vBlock表亲一样,VxBlock将在集成、测试以及验证过程当中不断提高自身水平。但与vBlock不同的是,VCE方面可以考虑向其中引入非思科型组件。目前VxBlock产品共分两种类型,其一集合了VMware的软件定义网络产品NSX、其二则配备有Application Centric Infrastructure产品,也就是思科公司在软件定义网络领域的竞争对手/替代方案。VCE公司承诺将在2015年年内推出更多VxBlock方案。Layton在采访当中指出,这些后续产品能够囊括来自其它供应商的组件与软件,因为VCE公司仅仅承诺在“vBlock”产品线中以排他方式采用思科产品。
VCE公司为2015年发展前景筹划的另一项变量在于vBlock软件包预配置应用程序。该公司并没有明确谈到除了EMC联邦同胞Pivotal之外(在我们看来,这里肯定有Cloud Foundry的事)、他们还与哪些其它厂商合作开发这些新型vBlock方案,而仅仅告诉我们该公司应用程序供应商就这一思路表现出的浓厚兴趣以及目前已经得出的大量成果感到非常兴奋。值得注意的是,此类思路在VCE的发展轨道当中并不属于新鲜事物,因为Avaya长久以来一直在提供运行在预配置VMware软件之上的统一化通信堆栈设备。
这一次同时传出的消息还有,“联邦企业混合云VCE基金会”将允许“厂方将更多其它VMware及EMC技术集成在其产品当中”,包括NSX、vRealize以及EMC ViPR。
再有,关于VCE Vision Intelligent Operations 3.0软件的升级消息也一并出炉。此次升级使该软件能够顺利与新的向外扩展产品相对接,并同Vscale架构提供的单一逻辑实体相协作。其它新闻还包括,去年公布的Vblock 540与570如今已经开始销售,而新鲜亮相的“VCE Integrated Solutions for Cloud Management”据称能够提供一套“开箱即有的云基础平台”。
Layton告诉我们,以上提到的公告彰显了VCE公司作为EMC联邦成员所制定的未来发展规划,同时也再次证明了思科已经将自身降级为普通合作方。他同时指出,VCE的新型应用程序绑定计划意味着该公司并不会因为被拿出来与甲骨文比较而感到不快,但在其看来与多家应用程序供应商协作将成为两家企业之间的本质区别。
今天发布的另一项重要消息是,VCE公司将作为VMware即将推出的EVO: Rack超大规模产品方案的初始合作伙伴之一。由此看来,新的VCE Vscale架构很可能成为虚拟巨头新产品中的组成部分。
那么这一切究竟意味着什么?想当初,EMC公司于1999年收购了Data General,而后者一直在坚持生产Clariion阵列以及服务器产品。在过去一年当中,部分分析人士认为EMC有可能重新回归服务器业务市场,但就现在看来这种可能性几乎为零。不过封装及支持服务器产品则很可能成为EMC联邦的新方向,并借此把其方案推向私有云与混合云,外加目前风头正盛的超大规模环境以及应用设备。更令人振奋的是,这一领域中的竞争对手还不算太多。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。