美光科技有限公司(纳斯达克股票代码:MU)推出了旗下最新的旗舰级性能固态存储产品系列--Micron®9200 系列NVMe™固态硬盘(SSD)。具备创新型架构和行业领先性能的 Micron 9200系列SSD 使组织能以更快的速度访问数据,并为应对趋于多样化的业务关键型工作负载和激增的数据需求提前做好准备。
全新的美光 9200系列SSD兼具3D NAND 经济实惠的容量与 NVM Express (NVMe) 协议经验证的吞吐量和响应时间。美光科技的第二代 NVMe 硬盘是为消除传统的硬盘接口层而从零开始设计打造,可全面提升固态非易失性存储的速度,最大限度提高数据中心效率,从而实现最优的总体拥有成本 (TCO)。
美光科技存储产品事业部 SSD 和系统业务副总裁 Eric Endebrock 表示:"美光 9200 系列 NVMe SSD 的设计旨在提供超高速度、低延迟和高容量,让客户能够处理当今复杂应用工作负载所产生的大量文件、图像和多媒体资源。随着美光 9200系列SSD 加入美光 SSD 产品阵营,我们将为客户提供更丰富的存储解决方案组合,满足其不断变化的业务需求。"
美光 9200系列SSD 的容量和性能使数据中心能够存储更多数据、执行更多任务,并且更深入地了解其中的数据。在 PCIe 连接上加入 NVMe 协议的创新架构,让美光 9200 SSD 可提供出色的企业级闪存性能(速度与市场上的普通 SATA SSD 相比提升多达 10 倍),同时又通过美光 3D NAND 的高密度存储节省能耗和机架空间。 此外,美光 9200 还是市场首款容量超过 10TB 的 NVMe SSD,即便是对于存储容量要求最高的使用情形,该产品也能以极具竞争力的每 GB 成本满足需求。
"NVMe 通过增加单个硬盘能够同时执行的存储命令数量以降低 I/O 开销。"Moor Insights & Strategy 服务器与存储业务高级分析师 Matt Kimball 表示,"但一直以来,阻碍这项技术广泛普及的因素是价位和可靠性。美光科技等公司推出的技术有望消除这些障碍,向降低存储密集型工作负载的 I/O 延迟这一目标迈出重要一步。"
全面满足工作负载需求
如今的业务变得越来越复杂,要想保持竞争优势,企业需要以更快的速度做出决策并分析更大规模的数据集。因此,企业越来越重视提高数据中心密度、确保可靠性和数据持久性,以及在不增加延迟的前提下纵向和横向扩展存储基础设施。
对于那些需要高容量和高性能数据的机构而言,3D NAND 和 NVM Express™ 等固态存储技术可以为企业 IT 升级提供技术基础。美光 9200系列SSD 将其中最出色的技术融入企业存储,非常适合这类高性能、高容量的使用情形,例如应用/数据库加速、OLTP、高频交易(HFT) 和高性能计算(HPC)。以 OLTP 数据库工作负载为例,与容量和性能最接近的竞争对手产品相比,美光 11TB 9200 ECO SSD 的速度高出 45%,容量高出两倍多。
美光 9200系列SSD的设计旨在作为 Micron SolidScale™平台的存储基础,提供更大容量以实现更加高效的工作负载优化,同时降低总体拥有成本。利用 9200,SolidScale 可将当今共享存储领域性能最高的 NVMe SSD的每个机架容量扩展 5PB 以上,实现超过 250TB的节点容量。这些全新的高性能 NVMe 硬盘可加快应用运行速度,为老化的基础设施注入新的活力和敏捷性,从而为当今企业提供至关重要的能力:
• 加快应用运行速度--美光 9200系列SSD 可提供高达 5.5GB/s 和 3.5GB/s 的连续读/写传输速度。 随机读/写传输速度高达 900K IOPS 和 275K IOPS,能够以低延迟和高性能将数据转化为信息。
• 优化现有基础设施--美光专门构建的闪存解决方案非常易于部署,能够为企业和 IT 运营提供真正的价值和效率。
• 扩展尽在掌握--优化并扩展服务器和存储设计(容量高达 11TB),采用符合行业标准的卷,可满足对存储要求最高的使用情形的需求。
• 高枕无忧--提供全面的企业级端到端数据路径保护和断电保护,确保数据安全无虞。
• 降低成本/IOPS--美光 9200系列SSD 提供较低的每 IOPS 成本,同时实现低延迟和更高的性能。 典型的高端传统硬盘的成本超过每 IOPS 1 美元,相较之下,采用 NVMe 的美光 SSD 可将成本大大降低,每 IOPS 减少约 0.01 美元。
• FlexCapacity 功能--分配存储容量以同时满足应用和预算要求。
• 满足工作负载耐用性要求--美光 9200 提供各种耐用性级别,可满足当今要求最严格的工作负载的需求。
美光 9200系列SSD 预计将于2017 年 8 月末由行业领先的经销商正式发售。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。