风投企业批评两位发展已久的巨头级供应商。意外吗?我们倒不怎么意外。

质疑的表情: 来自Khosla风投公司掌门人Vinod Khosla。
亿万富翁、风险投资大师兼Sun Microsystems公司联合创始人Vinod Khosla认为,戴尔与EMC之合并将给双方未来的创新道路带来严重影响。不出所料,EMC公司CTO John Roese对Khosla的观点做出了一一驳斥。
Khosla是在上个月于旧金山召开的Structure大会上接受采访时表达这一观点的。
这笔由戴尔以670亿美元收购EMC的巨额交易案将阻碍产品开发,Khosla表达了这样的意见,而以此作为基础,他进一步宣称各大主流供应商都在将更多时间投入到财务调整而非开发新奇技术方面。
在他看来,80%到90%的技术创新都将由初创企业负责贡献,而各大主流供应商最终将以合作方式借力于这些羽翼未丰的年轻厂商。
EMC公司CTO兼高级副总裁John Roese很快对Khosla的观点做出了猛烈还击,并在博文及SEC文件中皆就此做出了说明。
Roese认为Khosla的说法基本上完全错误:"Vinod是一位睿智的风险投资家,我对于他在初创企业初创能力认知方面的水平毫不怀疑,不过他对于我们以规模化方式实现创新的能力的评论则不太准确。"
EMC与戴尔双方将共同把研发资金投入到"增量性与颠覆性技术"当中,同时"积极培养、引导、收购并推动具备颠覆性技术成果的初创企业",而不仅仅像Khosla所描述的单纯依靠合作关系来实现。
Roese表示,在接受戴尔的收购之后,EMC方面将不再需要负担按季度发布财报的沉重任务,并最终将更多精力与资金节约下来投入到创新工作当中,这笔从股票回购及分红当中节约下来的资金,其具体数额将达到"35亿美元"甚至更高。他并没有提到任何需要花费在维护现有业务以及支付戴尔与EMC债务方面的成本。
Roese "同时指出,EMC公司在收购创新型技术成果方面拥有出色的以往表现--包括XtremIO与DSSD--但同时亦持有大量自主研发的技术方案,例如CLoudPools、Atmos、ViPR、ECS、Vblocks、大部分Cloud Foundry成果、RackHD以及CoprHD等。这直接驳斥了Khosla所提出的戴尔、EMC与思科"在过去三十年当中拿不出任何新鲜想法"的言论。
坦率地讲,我们认为Khosla的论调基本属于一派胡言。技术创新工作绝不是单纯立足于硬件与/或软件、设备或流程的新鲜想法,而是一种更为全面且完整的创造体系,而且无论是初创企业还是主流厂商都在为之而不懈努力。技术层面的创新可以表现为专利成果,而EMC显然拥有值得称道的专利积累--甚至在刚刚开始的2016年中其已经拥有两项新专利。
很明显,创新在不同领域有着不同的含义,而且我们很难将这些含义简单进行直接比较。Khosla想要表达的真实观点可能是他没有发现戴尔及EMC拿出的任何一种创新成果足以吸引他放弃初创企业,转而将资金投入到这两位巨头身上--但这只是我们的猜测。
值得指出的是,Khosla已经向多家初创企业进行了投资,并希望这些厂商能够继续保持强劲的发展走势。另外,这些年轻公司也需要通过与戴尔及EMC等主流厂商的直接竞争实现业务增长。所以他在发表这些言论时,其实是有着自己的出发点的。当然,Roese也绝对不是一位单纯的旁观者--以他的立场来看,作为EMC员工他当然需要无条件支持戴尔-EMC的此次合并决策。
Roese在博文结尾写道,"只要创新工作仍然在业务与IT成本领域扮演重要角色,与之相关的有机增长与外部战略性投资就永远不会消失。"
是的,话说得没错,不过戴尔与EMC在合并之后是否还会遵循EMC此前所采取的双管齐下创新方式?
这正是Khosla可能想要提出的问题,而且这个问题确实极具份量。我们期待着戴尔与EMC能够在这方面给出令人满意的答案。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。