软件离不开硬件的效率,硬件离不开软件的调度,他们是相互依存的关系,在5月刚刚结束的第六届中国云计算大会上,PMC“数据中的融合架构和存储”专题论坛中,PMC公司研发副总裁兼首席科学家廖恒调侃的将这种关系比拟成是夫妻关系。是的,在软件定义的时代,无疑催生给硬件厂商更多发展的可能性,在这其中,数据中心也将经历着自身的不断蜕变。
数据中心的融合架构与存储论坛上PMC展示的产品
PMC :I/O解耦合探寻未来数据中心出路
中国凭借巨大的人口受众以及非常强有力的经济发展还有互联网领域的创新,在大数据时代已经占领了独领风骚的地位,甚至在存储领域,PMC副总裁兼存储事业部总经理Travis Karr表示,中国存储销售量已经逐渐超过美国,成为全球第一大市场。在此基础上,不仅需要技术规模的生产,还需要不断的创新,才能满足中国爆炸式的数据存储的需求。
例如在互联网的时代,基于对供应链,尤其是硬件供应链的一些变化,需要不断的根据应用去做定制化,根据实际需求来动态调整,对硬件设备的形态,要快速的反映、部署,来解决存储的容量爆炸式的增长,数据种类的多样,和数据访问速度等等问题。而对于包括企业存储、工业标准服务器和超大规模数据中心三大类型客户的PMC来说,这更是他们亟待解决的问题。
PMC公司副总裁兼存储产品事业部总经理Travis Karr发表演讲
应对大数据的洪流,Travis Karr表示纵观创新方面, PMC着重发展在以下几个方面:在传统的存储部件中采用模块化设计、闪存技术、存储和I/O解耦合以及数据中心之间超高宽带长距离传输的问题。
对于存储解耦合,无疑是为了提高系统总体架构的灵活性,通过动态的调配服务器CPU和存储,不管是容量,或者是存储速度之间的比例适配应用的需求,从而提高硬件资源利用效率,简化服务器设计。
阿里巴巴:数据中心靠融合解困管理开销成本
同样苦于数据爆炸增长的还有阿里巴巴,尤其是在每年双十一期间的大量数据积累,不难看出,在这其后他应该更具有发言权。阿里巴巴集团资深硬件工程师牛功彪表示阿里巴巴从互联网运营上积累的数据存量越来越大了,去年数据量已达100P左右,其实一个大的挑战就是管理成本的提高。
包括后端,前端、后端采购,或者机型的管理,以及对于开发或者性能厂商都会面对非常大的开销,都是面临的实际问题。对此阿里巴巴提出的解决方案是融合,不管是设备的管理,还是使用问题。
资源解耦与存储池化,是现在阿里巴巴所在做的,主要将存储和计算解耦掉或者存储池化。牛功彪表示从数据传输角度来看,解耦以后需要加快传输数据,而之前存储和计算路径很短,这样能保证数据的传输性或者数据完整性。而现在距离变长了,传输介质这部分,阿里巴巴目前更倾向于硅光,在传输可靠性、传输的距离上,都能满足需求。
通过这种方法,可以把各资源有效的融合起来,借助软件提高存储的利用率,以及计算节点的利用率,此外它的易扩展,也方便资源的调度。
OCP创始成员: 纠错编码帮助数据中心“勒紧钱包”
此次论坛不仅请来了国内知名互联网巨头,更有北美优秀的数据中心经验供分享。OCP的创始成员Per Brashers在一年前离开了Facebook,成立了Yttibrium,在Facebook期间,他主导了存储相关结构的设计。
Open Vault & OCP Cold Storage 发明者,前Facebook的存储负责人,Yittibrium的创始人Per Brashers 发表演讲
总结OCP的设计理念,Per Brashers概述为把数据中心的每一个构成部件,以及整体成本当中的权重做了一个罗列,并且对每一个部件的设计理念进行优化采取的措施,以及对设备投资,运维成本带来的比例。
而这无非就是希望能够最大程度的节约运营成本,其实也就是数据中心的效率,这当然还是基于成本的考量。通过改善数据中心的设计,可以得到30%TCO的下降,这直接就是降低了整个公司的运营成本。怎么样实现这样的效率提升呢?一个非常综合的设计,通常包括改造服务器架构,设计高密度的服务器,在小空间加入内更多盘片的连接。
对此,Per Brashers提出了他关于数据中心内数据保护问题的新观点。过去通常是3个备份的实现方式,为了让一个数据非常可靠,除了本地存一份,机架存一倍,跨越机架存第三份。这就需要三个倍份的存储容量,带来高成本。而纠错编码在一定程度上就能解决该问题,每个数据需要10份,然后再分出两份纠错编码,把12份数据打散分布在不同的节点。这样开销只有1.2倍,大大节省了成本。
这就好像是软硬件的纷争,其实关键因素都是把效率的理念贯穿其中。基础设施设计理念就是一个持久性的驱动力,而进一步的体系结构可能是软件,可能是硬件,或者是二者相结合,最终降低TCO。
好文章,需要你的鼓励
这篇研究提出了OThink-R1,一种创新的大型推理模型,能够像人类一样在快速直觉思维和慢速深度推理之间自动切换。研究者发现,现有推理模型即使面对简单问题也会生成冗长的推理过程,导致计算资源浪费。通过分析推理轨迹并使用LLM评判员区分冗余和必要推理,OThink-R1能根据问题复杂度动态调整思考深度。实验表明,该方法平均减少了23.4%的生成文本量,同时保持或提高了准确率,代表了向更高效、更人性化AI推理系统迈出的重要一步。
这项研究提出了SHARE,一种新型文本到SQL修正框架,它利用三个小型语言模型(SLM)协同工作,实现高效精准的SQL错误修正。SHARE首先通过基础行动模型将SQL转换为行动轨迹,再经过模式增强模型和逻辑优化模型的层次化精细化修正。研究团队还创新性地提出了层次化自演化训练策略,大大提高了训练数据效率。实验结果表明,SHARE在多个基准测试上显著提升了SQL生成准确率,计算成本仅为传统方法的十分之一,并展现出强大的泛化能力,适用于各种生成器模型和SQL方言。
这项由香港大学和南京大学等机构研究人员联合开发的双专家一致性模型(DCM)解决了高质量视频生成中的效率难题。研究团队发现扩散模型蒸馏过程中存在优化冲突:早期阶段负责语义布局与运动,后期阶段关注细节精修,两者学习动态差异显著。DCM创新性地将这两个任务分配给不同的专家模型,通过参数高效的实现方式,使模型仅需4步即可生成接近50步原始模型质量的视频,大幅提升生成速度,为实用化AI视频创作铺平道路。
这项研究介绍了QARI-OCR,一种基于Qwen2-VL-2B-Instruct模型微调的阿拉伯文字识别系统。研究团队通过三阶段合成数据训练,成功解决了阿拉伯文字识别中的主要挑战:曲线连笔特性、上下文变化的字母形状和发音符号。QARI v0.2模型创下了0.061的字符错误率和0.160的单词错误率,超越了现有开源解决方案,为阿拉伯文化遗产的数字化保存提供了重要工具。