Infinidat扩展了其Infinibox产品系列,将其最大全闪存阵列的容量提升一倍,同时缩小了物理占用空间。此次升级使Infinibox SSA G4 F24的容量从17PB提升至33PB,而机架空间从14U减少到11U。
当Infinidat在今年晚些时候为G4提供四级单元(QLC)驱动器选项以替代当前的三级单元(TLC)闪存驱动器时,存储密度将进一步提升。
Infinidat还在Infinibox操作系统InfuzeOS中原生添加了对象存储连接功能。
Infinibox G4全闪存阵列面向需要高性能和高可用性的高端企业用例。该公司还提供混合阵列(闪存和机械硬盘),通常用作备份目标。
Infinidat主要通过装入更多高容量驱动器来实现G4存储密度翻倍。之前17PB版本配置8个机箱,每个机箱60个20TB驱动器,现在配置8个机箱,每个机箱78个24TB驱动器。这也是占用空间缩小的原因。
当Infinidat在今年晚些时候引入QLC驱动器时,容量密度可能进一步增加33%。这是因为TLC驱动器在每个闪存单元中存储三位数据,而QLC使用四位,从而获得额外的交换容量。
这会降低单元和驱动器寿命的耐用性,但对于大量顺序输入输出且较少随机访问的工作负载,QLC非常适合,因为擦除阶段会缩短驱动器寿命。
此版本G4阵列的另一个新功能是操作系统原生提供的对象存储。这是对现有文件和块访问的补充。
对象存储是一种重要且日益流行的协议。它是云存储的主要方式,由于其良好的扩展能力,经常用于AI数据存储。
Infinidat首席营销官Eric Herzog表示,对象存储将包含在InfuzeOS中,客户可以在配置系统时按卷启用,他强调了其实现的原生特性。
Herzog说:"有些人将对象协议放入虚拟机或阵列内的容器中,但这增加了最终用户需要处理的复杂性。我们将其原生嵌入到操作系统中。现在设置卷时,有一个复选框。可以将卷一设置为块,卷二设置为对象,卷三设置为文件。可以混合使用,或者整个阵列可以只是对象、文件或块。"
还增加了以5%增量添加存储容量的能力,而不是之前购买60%、80%或100%满载阵列的选项。
像许多其他存储供应商一样,Infinidat提供延迟资本支出和运营支出的阵列选项。
Herzog说:"我们有一个选项,您可以购买完全配置的设备。您将在法律上拥有它,这是资本支出,但我们只对设备的一部分收费。如果您需要更多,我们会开启更多容量,我们或我们的渠道合作伙伴将向您收费。这是按需容量系统,属于资本支出。对于运营支出,我们有完整的存储即服务。我们将阵列放在您的场地。我们在法律上保留所有权,该阵列由您在现场使用,我们向您收费。当您使用更多存储时,我们收费更多。如果您使用较少存储,我们收费较少。"
Q&A
Q1:Infinibox SSA G4 F24的主要升级是什么?
A:Infinibox SSA G4 F24将存储容量从17PB提升至33PB,同时将机架空间从14U减少到11U。主要通过使用8个机箱,每个机箱配置78个24TB驱动器来实现,而之前版本是60个20TB驱动器。
Q2:QLC驱动器相比TLC驱动器有什么优势和劣势?
A:QLC驱动器可以将容量密度进一步提升33%,因为它在每个闪存单元中存储四位数据,而TLC只存储三位。但QLC的耐用性较低,单元和驱动器寿命较短,更适合顺序I/O多而随机访问少的工作负载。
Q3:Infinidat的存储即服务模式是如何运作的?
A:Infinidat提供两种模式:资本支出模式下,客户拥有设备但只为使用部分付费,需要时开启更多容量;运营支出模式下,Infinidat保留设备所有权,客户按实际使用量付费,用得多收费多,用得少收费少。
好文章,需要你的鼓励
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。