在ODCC2015大会期间浪潮展示了业界首台基于SAS协议的交换式存储池——SAS Switch。今年2月,浪潮发布了全球最丰富的整机柜SmartRack节点阵列,SAS Switch的推出,使得SmartRack在机柜级存储池化层面再进一步。
据统计,在过去的2014年,全球数据中心的IP流量已经达到了8.6ZB,相比2013年有了一倍以上的提升。但全球产生的数据量中仅有1%左右的数据能够被保存下来,而被标记并用于分析的数据更是不到其中的10%。
数据存储和管理成本是造成目前数据存储困境的重要原因之一。此次浪潮在国内首次亮相的SAS Switch能实现的存储资源池化,将极大的降低数据存储成本,为大数据时代的数据存储提供更先进的技术支撑。
IT资源池化,提升能效比
浪潮SmartRack是互联网公司追求极致能效比的产物,它将服务器外部资源进行整合,将部署空间、供电、散热等模块进行融合,经过四年的发展,符合天蝎2.0标准的SmartRack已经成为一条完善的产品线,至今已累计出货80,000节点,市场占有率超过76%!
近日,ODCC发布了天蝎2.5标准,并提前公开了天蝎3.0的发展方向,存储池化将是天蝎3.0的第一步。而在天蝎3.0还尚处于预研阶段时,浪潮已经开始第二代融合架构的研发,并且已经提前完成了存储资源的池化,通过SAS Switch将SmartRack的存储资源独立出来,形成共享的资源池,再根据业务工作负载的需要,灵活的配置和“组装”服务器,这样一来,服务器的配置更加灵活,同时服务器的外设资源的利用率也可以大幅提升,进一步降低了服务器和数据中心的功耗。
更完美适应业务,方便灵活扩容
互联网的业务应用繁杂多样,对于不同的业务应用而言,计算和存储资源的配比可能是极端的不均衡。与通用服务器处理计算存储资源的形式不同,SAS Switch完全将计算和存储资源分离,可以根据业务的类型,随意变更计算资源和存储资源的规模。
存储资源的池化也带来扩容的便利,通用服务器的空间有限,如容量不足,需要采购更多的服务器来满足,但是这就会带来不必要的计算资源成本的增加。而SAS Switch上行与SAS卡或计算节点相连,下行连接JBOD。单个Switch主板可外部扩展17个MinisasSAS接口,使用Minisas HD connecter,可连接51个设备,整体可连接204个设备,可以达到15PB以上的超大存储空间。
另外,SAS Switch还可以将同一个JBOD中的存储资源任意分解,根据业务应用的需要,灵活的进行计算和存储的配比,让硬件更完美的适应业务。
计算和存储解耦,让资源不再过盛
目前,通用的服务器计算和存储资源是紧耦和的,也就是说一台设备中需要有一定数据量的CPU内存,也需要一部分的硬盘,不同的机型的区别也就在于计算和存储资源的配比。通用服务器在处理具体业务应用时,就会发现大量的计算资源或者存储资源是过剩的。
浪潮推出SAS Switch的目的也正是为了将计算和存储资源完全解耦,计算类节点只需要CPU、内存等计算类部件,存储节点只需要硬盘和相应接口,而SAS Switch通过标准SAS协议将计算节点与存储节点相连,计算节点和存储节点能够作为独立的模块化的部件进行单独采购,极大降低数据中心的采购成本。
2014 年浪潮正式发布融合架构理念,以硬件重构和软件定义为核心,通过硬件层面的解耦、集中,以及软件层面的虚拟化、统一管理和业务感知,最终形成可根据客户业务负载自动均衡的软件定义的数据中心SDDC。目前,浪潮SmartRack已经实现了存储资源的池化,随着未来Cache、IO、计算资源的池化,浪潮将实现完整意义的SDDC。
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。