2020年7月28日-北京忆恒创源科技有限公司(Memblaze)今天宣布推出低功耗企业级NVMe SSD PBlaze5 520系列,满足绿色数据中心节能环保的需求。PBlaze5 520 系列 NVMe SSD采用96层3D eTLC NAND,拥有 U.2 接口 2.5 英寸硬盘及半高半长插卡两种形态,容量范围从 1.6TB 到 3.84TB,为企业部署绿色数据中心提供了灵活的选择。PBlaze5 520 系列包括PBlaze5 C520, PBlaze5 D520, PBlaze5 C526, PBlaze5 D526 等产品型号。

Memblaze PBlaze5 520系列企业级低功耗 NVMe SSD
Memblaze PBlaze5 520系列采用 8 通道架构,提供高达 520K 随机读IOPS 和 3.3GB/s 读带宽,读/写延时低至 85/15μs,性能较企业级 SATA SSD 提升了 6 倍,而其典型工作功耗仅为 9W,待机功耗低至 4W,并且还支持精确到每瓦的功耗控制,可有效降低数据中心设备的资本性投入(CAPEX)和运营投入(OPEX)。
支持NVMe-MI 接口的带外管理,提升运营效率
Memblaze PBlaze5 520低功耗系列产品支持 NVMe-MI 接口,方便批量部署 SSD 的用户通过带外管理方式对 SSD 产品基本信息查询、健康状况、功耗、温度等信息的运行状况进行管理监控。在大规模部署 NVMe SSD 的应用场景下,PBlaze5 520系列的 NVMe-MI 接口将大幅提升 IT 系统的管理及运维效率。
支持双重自检,监测更为灵活
PBlaze5 520系列除了支持上电自检功能,还支持设备自检,即 Device Self-Test。通过开源命令行工具,PBlaze5 520 系列允许用户主动触发自检程序,完成 S.M.A.R.T 告警检测和电容有效性检测。PBlaze5 520系列的自检功能进一步加强了对 SSD 健康状况和电容有效性的检测力度,满足企业用户对数据安全性的严苛要求。
支持更加丰富的企业级存储所需功能
PBlaze5 520 系列支持双端口功能,即两个端口同时访问,解决了单路径失效问题,保证了数据访问的连续性,满足了企业级高可用性要求。PBlaze5 520 系列同时支持 Reservation 功能,支持两个或者更多主机端共同访问每一个命名空间。同时 PBlaze5 520系列还支持在线固件升级,可变 Sector Size 管理等 Memblaze 自主研发的丰富的企业级产品特性。
相比传统需要重启完成固件升级,PBlaze5 520 系列支持在线固件升级功能,用户无需停止业务,无需重启即可完成固件升级,操作更简单,不易出错。对于可靠性要求很高的存储系统而言,在线固件升级功能能够保证存储系统服务的连续性,帮助企业提升业务运营效率。
可变 Sector Size(Variable Sector Size,简称VSS),可以在保存用户数据的同时,保存该数据的元数据。PBlaze5 520 系列支持 512 字节、4096 字节、512+8 字节、4096+8 字节和4096+64 字节 Sector Size,即业务应用下发一个 I/O 同时可携带 8 字节或者 64 字节的元数据。VSS 技术在保证高一致性能前提下,进一步保证存储系统和分布式文件系统对数据可靠性的高要求。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。