上个月即有传闻称西数有计划收购Skyera,如今这一消息已经得到证实。西数旗下子公司HGST已经提前得到了一份圣诞大礼,西数买下了这位全闪存阵列存储密度之王、并将其交由HGST方面负责打理。
Skyera公司于今年八月进行了CEO职务更替,前任COO Frankie Roohparvar肩负起了这家闪存技术天才的管理工作、而公司联合创始人RadoDanilak则出任CTO一职。Danilak曾经创立闪存控制器厂商Sandforce并出任CTO,这家公司随后被LSI方面收购。
Skyera公司拥有其引以为傲的第二代skyHawk阵列,能够在1U空间内提供136TB闪存存储容量。其目前正在开发的skyEagle则计划在1U空间内容纳500TB存储容量。目前还没有任何其它供应商能够达到甚至是接近如此惊人的闪存存储密度,而Skyera的闪存技术实力在其它领域也有所体现——例如NAND使用寿命。
HGST正在努力拓展自身的NAND阵列设计能力,并将其与现有NAND技术资产加以整合。此次交易的具体金额仍然是个谜。根据我们已经掌握的确切资料,诞生于2010年的Skyera公司已经通过三轮融资获得9000万到1亿美元作为种子资金。根据五倍回报率来推断,那么收购价码应该为5亿美元。不过如果按2倍回报率来计算,那么Skyera的投资方们则能够得到2亿美元净收益。
收购交易的具体数额还要看Skyera的出售是否涉及拍卖流程。我们估计SanDisk与希捷很可能也参与了竞购,因此西数公司基本上应该是以4亿美元或者更高的价码得到了这家后起之秀及其全部技术成果。
HGST公司获得了Skyera的全部工程技术人才以及知识产权,并将其纳入现有闪存资产当中,具体包括:
• 2013年6月以3.4亿美元收购获得的sTEC企业SSD方案
• 2013年7月以3500万美元收购获得的Velobit缓存软件方案
• 2013年9月以6.85亿美元收购PCIe闪存卡初创企业Virident
• 2009年3月以6500万美元收购SiliconSystems及其SSD技术
西数目前用于收购闪存供应商的总体投入已经达到约14亿美元——这可绝对是笔大数目。
HGST公司在今年八月的闪存存储峰会上展示了一款拥有300万IOPS的相变存储PCIe设备,因此我们可以肯定其已经具备了打造自有非易失性存储方案的能力。
HGST公司总裁Mike Cordano在一份声明当中指出:“西部数据与Skyera长久以来一直保持着合作关系。能够将Skyera的创新型闪存平台与HGST的领先固态存储解决方案及闪存虚拟化软件相结合,我们计划带来更多极具突破性的价值与容量提升、从而帮助客户对现有云以及企业数据中心基础设施进行全面改造。”
假如一切能够按照既定方针顺利推进,那么除了skyEagle之外,我们估计将有更多采用Skyera技术方案的HGST产品于明年陆续亮相。到那个时候,企业级闪存阵列与服务器存储闪存组件市场的激烈竞争将趋于白热化,其中各大主要势力包括HGST、美光/英特尔、三星以及SanDisk/东芝。
在这四方阵营当中,HGST已经为阵列构建以及堆栈上移制定了一套发展战略,而全部现有全闪存阵列供应商都必须将HGST视为强劲的竞争对手,这意味着所有主流阵列供应商外加凭借着即将于明年推出的Invicta阵列加入战团的思科——其中包括Kaminario、Pure Storage、SolidFire、Tegile以及Nimble——都已经拥有属于自己的全闪存阵列产品。
除了各大主要参与者,EMC也将在2015年年初推出自己的机架规模DSSD设备。TLC与3D闪存将在未来陆续面世,而且总体而言、全闪存阵列市场应该会逐步扩展到更多不同类型的用例环境当中。
围绕竞争与市场推广工作展开的竞争与对抗将表现得极为激烈,而融合型服务器/存储系统则将成为各大厂商的主要关注重点。轰轰烈烈、热热闹闹,这才有节日气氛——圣诞快乐,HGST!
好文章,需要你的鼓励
Snap 推出 Lens Studio 的 iOS 应用和网页工具,让所有技能层次的用户都能通过文字提示和简单编辑,轻松创建 AR 镜头,包括生成 AI 效果和集成 Bitmoji,从而普及 AR 创作,并持续为专业应用提供支持。
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。