希捷技术公司已经同意收购存储系统供应商Dot Hill Systems,此举将帮助希捷继续努力提升自身在存储价值链中的所处位置。
位于加利福尼亚州库比蒂诺的希捷是目前全球最顶尖的两大磁盘驱动器及SSD厂商之一,同时其在中小型企业存储解决方案市场上的份额亦愈加可观。希捷方面此次的收购计划将耗资6.94亿美元——如果除去Dot Hill公司持有的现金,那么总额则为6.45亿美元。
预计这笔交易将在2015年第四季度内彻底结束。
截至本文发稿之时,希捷与Dot Hill双方都没有对我们提出的询问作出回应。
希捷公司指出,Dot Hill旗下基于外部存储阵列的系统及软件产品将成为希捷云系统与电子解决方案业务的组成部分。这位存储巨头还计划利用Dot Hill的存储技术知识产权及软件为双方OEM客户群体带来更多增量价值。
Dot Hill公司业务当中有相当一部分来自面向面向OEM存储厂商合作伙伴的产品销量。在销售Dot Hill解决方案的合作厂商中有着大量我们耳熟能详的名字,其中包括宏碁、戴尔、惠普、联想、昆腾、三星以及Stratus Technologies等。
对于那些希望通过渠道销售合作伙伴购买Dot Hill解决方案的客户,该公司在官方网站上建议他们与总部设在加利福尼亚州圣何塞的昆腾进行联系。Dot Hill与昆腾于今年4月签订了一份合作协议,其中约定昆腾将Dot Hill的整个企业级磁盘存储系统产品线集成至自家分层存储方案当中。
作为这项协议的一部分,Dot Hill同意使用昆腾方面的渠道推广、销售与营销资源以及全球服务与技术支持体系。
Dot Hill公司在过去一年当中实现了销售额与净利润双增长的良好局面。该公司于本月早些时候公布了其2015财年第二季度的运营报告,其GAAP营收为6150万美元,远高于2014财年第二季度的4820万美元。GAAP净利润则为70万美元,折合每股1美分,而上年同期这一数字则为亏损10万美元。
“我仍然坚信我们是惟一一家能够在预期与实际营收增长幅度方面给出两位数结果的存储厂商,而净利润的增长幅度还要更大,” Dot Hill公司总裁兼CEO Dana Kammersgard在一份关于第二财季运营状况的声明当中指出。
希捷公司此次决定收购Dot Hill其实可以算是在意料之中,Berkeley Communications公司首席技术官Zeki Yasar表示——这是一家来自加利福尼亚州埃默里维尔的解决方案供应商。
希捷与其磁盘产品竞争对手西部数据双方都在积极收购并推出非组件型存储技术方案,Yasar在采访当中指出。
“双方似乎都在努力提升自身在价值链当中的定位,”Yasar解释称。“随着SSD销量对于高利润SAS磁盘驱动器业务的不断蚕食,传统驱动器制造商已经逐渐失去了这一利润丰厚的产品根据地。”
Yasar同时表示,希捷与Emeryville的结合对于两家企业来讲都将是一件好事。
“我发现,希捷公司正试图利用Dot Hill所拥有的一部分OEM合作关系,”他指出。“希捷方面也可以将希捷驱动器产品纳入到Dot Hill存储系统当中,从而实现更为理想的增值销售效果。这将使得希捷不再被束缚在组件供应业务领域。而对于Dot Hill来讲,这笔交易也有助于其挽回惠普、甲骨文-Sun以及NetApp等原本已经很难维系的OEM合作关系。”
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。