IBM公司已经公布了其全闪存阵列FLashSystem的功能参数,该方案可用存储容量为1.6PB、且内置SVC/Storwize的各项功能——其中包括实时压缩机制。
FlashSystem V840 1.2版本由三台2U机架框共同组成:一台AE1存储机箱(840设备同样采用)外加两个主动-主动AC1控制机箱。
这套存储设备能够共享12个闪存模块,每个模块的存储容量分别可为1TB、2TB或者4TB,这将使其原始存储容量达到48TB、其中可配置容量为40TB。
单一配置体系中最多可以容纳八套这种FlashSystem设备,这意味着其可配置存储容量最高能达到320TB,如果按照保存在系统中的数据有80%进行压缩、那么其实际可用容量将达到1.6PB。
单一FlashSystem V840设备包含两台控制机箱,而四台设备可以利用专用内部8Gbit每秒光纤通道交换机制实现连通,从而带来160TB的可配置容量。整体系统能够容纳八套存储机箱,意味着可以为用户提供320TB的可配置存储容量。
单一V840设备可以塞进最多五台存储机箱,意味着能够提供最高200TB可配置存储容量。一组四台V840设备实际可容纳两套存储机箱,每套最多容纳八套40TB存储设备、即存储容量上限为320TB。
根据IBM提供的官方指南,用户无法在这四台V840设备中全部实现最高容量配置,也就是为每台V840都配备五个独立容量为40TB、总容量为200TB的存储机箱,因此不可能实现理论意义上的800TB可配置容量与IBM五倍压缩效果加成后的4PB实际存储容量。
也许未来的V840开发方案会引入InfiniBand以及速度更快的处理器,从而突破整体320TB的最高可配置容量上限。
实时压缩属于可选软件功能。其AC1控制器机箱配置一块至强E5 v2八核心处理器,能够在第二块八核心至强E5与32GB内存的支持下实现实时压缩。除此之外,用户也可以额外选择两块可靠压缩加速卡,利用硬件进行压缩辅助。
这些压缩加速卡能够将压缩IOPS翻番,同时将压缩速度增加到原先的3.5倍。整个处理过程显然属于处理器密集型使用情况。此外,用户还可以根据需求选用加密机制。
IBM将FlashSystem的SVC/Storwize代码称为“软件定义存储”,但大家只能通过购买IBM的硬件平台来使用这些软件功能,因此就不用梦想着能单独购买这些软件并将其运行在自己的服务器控制器以及闪存JBOD机箱当中了。
这部分代码支持存储体系的三个层级外加IBM的Easy Tier数据替换软件,因此当某些数据访问频率降低且不需要较高的访问速度支持时,它将被移动到近线磁盘存储体系当中、并随后以其它形式实现长期保存。
其它数据管理功能还包括复制、FlashCopy数据保护、远程镜像创建、精简配置以及附加第三方阵列虚拟化等。也就是说,这些功能可以让第三方存储设备作为准FlashSystem阵列存在,并让整体可用容量上限提升至巨大的32PB。
接入服务器与V840采用光纤通道线缆实现连通。
FlashSystem V840与VMware方案协作效果良好,拥有vCentre插件、VAAI支持能力以及SRA for Site ecovery Manager。VVOL支持也将随后与广大用户见面。
根据Gartner公司的说法,FlashSystem属于销售速度很快的阵列产品,同时也是IBM存储产品组合中的显著亮点。这款新型融合型系统的推出将有可能给蓝色巨的人业务带来巨大推动作用。而在其它全闪存阵列方案方面——例如来自EMC、Pure Systems以及Solidfire的产品——大家可以预期在未来六到十八个月中将有更多容量密度更上一层楼的闪存芯片被摆上货架。
好文章,需要你的鼓励
Atlassian、Intuit和AWS三大企业巨头正在为智能代理时代做准备,重新思考软件构建方式。当前企业API为人类使用而设计,未来API将成为多模型原生接口。Intuit在QuickBooks中应用自动发票生成,使企业平均提前5天收款;AWS通过AI辅助迁移服务显著提升效率;Atlassian推出内部员工入职代理和客户代理,节省大量时间成本。专家强调需要建立强大的数据架构和信任机制。
这项研究首次系统评估了AI代码智能体在科学研究扩展方面的能力。研究团队设计了包含12个真实研究任务的REXBENCH基准,测试了九个先进AI智能体的表现。结果显示,即使最优秀的智能体成功率也仅为25%,远低于实用化要求,揭示了当前AI在处理复杂科学推理任务时的显著局限性。
MIT研究发现,使用生成式AI完成任务时,大脑运作方式与单纯依靠自身思考存在显著差异。研究显示,使用ChatGPT等工具的用户记忆力更差,神经连接活动减少,对所写内容的回忆能力明显下降。虽然AI工具能提高效率,但可能导致用户缺乏对知识的深度理解和掌控感。研究强调需要更多科学数据来了解AI使用对人类认知的长期影响。
俄罗斯莫斯科国立大学研究团队开发出MEMFOF光流估计新方法,在保持顶尖精度的同时将1080p视频分析的GPU内存消耗从8GB降至2GB,实现约4倍内存节省。该方法通过三帧策略、相关性体积优化和高分辨率训练在多个国际基准测试中取得第一名成绩,为高清视频分析技术的普及奠定基础。