SanDisk公司已经正式公布了其第三代ioDrive PCIe及夹层闪存卡,同时宣称其在实现四倍于以往的性价比提升之外,还能够较前代Fusion ioDrive 2/Atomic产品实现高达61%的标价削减幅度。
Fusion-io公司及其ioMemory技术方案以及于去年六月被SanDisk方面以11亿美元价码收入囊中。从那时开始,闪存技术已经迎来迅猛发展,如今其芯片拥有更小的物理尺寸及更为密集的存储晶粒,这意味着厂商能够将更多闪存容量塞进同一块PCIe闪存卡当中、并借此实现性能提升以及/或者降低产品售价。
上一代闪存卡为SX300(存储容量区间为1 TB到6.4 TB)与PX600(存储容量区间为1 TB到5.2 TB)PCIe卡——后者此前曾被命名为Fusion-ioioDrive 2卡——二者皆采用20纳米制程技术并配备有来自美光的MLC闪存芯片。
SanDisk公司此次在闪存卡产品中使用了自家打造的闪存芯片——我们估计其属于19纳米MLC技术方案——且并没有在整体存储容量方面带来提升。这一回迎来更新的产品线具体如下:
• SX300与新的SX350系列——存储容量区间为1.2 TB到6.4 TB,主要面向:
o 混合使用型工作负载——包括虚拟化、数据库、商务智能以及实时性金融数据处理等。
o 读取敏感型工作负载——包括Web托管、数据挖掘、地震数据处理、内容缓存处理、3D动画以及CAD/CAM等。
• PX600系列——存储容量区间为1 TB到5.2 TB——合适各类混合使用型工作负载,例如虚拟化、数据库、商务智能以及实时性金融数据处理等。
• Mezzanine闪存卡系列主要面向最新的惠普第八代及第九代BladeSystem服务器以及思科的UCS B系列刀片服务器——用于构建虚拟化环境,其中该闪存卡负责在每台服务器上支持更多虚拟机系统、加速数据库以及商务智能挖掘任务。
此外新的闪存卡与FlashSoft缓存软件绑定方案也已经出炉。这款软件能够在vSphere、Windows Server以及Linux环境下带来优于非缓存式SSD的I/O延迟水平。
此次更新的SX300在性能表现上亦优于上代版本:
• 4K IOPS随机读取测试结果为35万,远高于上代版本的21万5千。
• 随机写入IOPS为38万5千,高于上代版本的30万。
• 连续读取传输带宽为每秒2.7 GB——上代版本为每秒2.6 GB。
• 连续写入带宽为每秒2.2 GB,远高于上代版本的每秒1.2 GB。
两代版本在读取/写入延迟方面保持一致,皆为92微秒/15微秒。
SX350与SX300在大部分参数上保持一致,但前者的连续读取速率为每秒2.8 GB,且其读取延迟更低、仅为79微秒。
更为高端的PX600在IOPS速度表现方面超过了上代产品,但连续传输带宽却并未实现改进:
• 4K IOPS随机读取测试结果为35万,高于上代版本的33万。
• 随机写入IOPS测试结果为38万5千,高于上代版本的37万5千。
• 连续读取传输带宽为每秒2.7 GB,连续写入传输带宽则为每秒2.2 GB,与上代版本持平。
PX600新版本在延迟水平方面亦没能迎来改进。
SanDisk公司目前大力强调该闪存卡系列产品的可靠性,举例来说,其SX350在不可修复的错误比特率(简称UBER)方面拥有10-20这一惊人的成绩。
根据我们掌握的情况,此次推出的新系列PCIe卡在随机读取性能方面达到上代ioDrive 2产品的两倍。举例来说,此次更新的Mezzanine卡实现高达两倍的性能提升、存储容量增加33%且较上代ioDrive 2 Mezzanine卡在数据访问延迟方面亦有所改善。
让我们通过以下表格了解各更新产品线的具体性能参数:
SanDisk公司指出,每款闪存卡都针对混合型用例或者读取敏感型工作负载进行了优化,同时能够与SanDisk方面刚刚公布的下一代FlashSoft缓存软件并行协作。
除此之外,Virtual Storage Layer(即虚拟存储层,简称VSL)亦迎来了升级,其带来直接内存访问、最低延迟控制以及应用程序吞吐量最大化等机制,但目前我们还没有得到更多细节信息。
我们估计,此次更新将是三步战略中的第一部分。在下一阶段当中,SanDisk公司将把制程工艺进一步缩小,同时利用3D NAND技术提高存储产品的容量水平。
这一全新产品组合目前已经面向部分认证客户进行销售。此外,其同时通过SanDisk企业经销合作伙伴计划供各负责销售SanDisk数据中心硬件与软件产品的SanDisk商业业务渠道合作伙伴进行市场推广。
目前各款产品的具体售价信息尚不明朗。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。