近日,IEEE高级会员Tom Coughlin接受记者采访,聚焦存储器技术、传输网络、数据接口以及存储系统等方面,分析解读2017年数字存储的技术走向与行业趋势。
2016年固态存储技术发展迅速,2017年这趋势将会更加明显。Coughlin表示,目前大型闪存厂商都在积极研发3D闪存技术,优化改进制程工艺,其中不乏来自中国的新兴企业。然而,3D闪存发展之路并不平坦,因为企业不但要购置昂贵的生产设备,而且初始收益率还远远低于2D平面闪存。但随着3D闪存的产量和回报率逐步提高,在2017年年底或2018年年中,3D闪存的生产成本将与2D闪存相当。
目前,三星的64层V-NAND 3D闪存已经发货。他指出,按照迭代速度,2017年市场有望推出接近100层的3D闪存产品。当然,在增加闪存的堆叠层数之余,如何在不影响性能的情况下尽可能压缩堆栈的高度,将会是厂商面临的一大挑战。而在2016 IEDM会议上,韩国电子公司SK 海力士就提出了能够实现逾256层存储结构的堆叠技术。
“2016年是固态存储行业发展关键的一年。我们见证了众多企业并购、达成战略合作以及发起IPO等重大事件。2017年,产业融合的趋势将会更加明显。”2016年,全球知名的硬盘厂商西部数据完成了对闪迪的收购,将其收入麾下。另一个行业巨头——希捷目前的企业级SSD产品主要选用美光NAND闪存,但同时也在与韩国SK海力士洽谈合作生产适用于其他应用场景的NAND闪存产品。他推测,希捷将会在2017年与某家NAND闪存供应商达成生产合作协议。这种合作关系,与当年西部数据收购闪迪后,仍继续与东芝保持合作类似。
在MRAM领域深耕最久的Everspin,最近成功公开上市。其MRAM芯片总发货量已超过6亿枚。面对日益旺盛的市场需求,Everspin正在努力提高性能更高的STT-MRAM芯片的产能。早期与Everspin达成生产合作的Global Foundries也在日前宣布成功研制出内置STT-MRAM芯片的工业级和消费级产品。此外,许多固态存储和嵌入式系统的厂商都在积极研发MRAM。
Coughlin介绍说,今年3月,英特尔正式发布了革命性的存储产品3D Xpoint。这款与美光联合开发的新型存储器,历经多年终于迎来首次产品亮相。随着3D Xpoint存储器的推出与普及,存储市场对存储器的性能和寿命要求将会日益增加,这对于电阻式RAM(RRAM)产品的大面积商用无疑是绝佳的机遇。
他预测,2017年将会迎来一批电阻式RAM产品的发布,并且将至少有一家厂商带着应用自旋扭矩的MRAM产品亮相。这种存储器很有可能作为处理器的内置内存,广泛应用于工业与商用设备中。预计到2020年,这种新兴存储器的市场增长有望以每年20亿美元的速度迅速攀升。
2016年,NVMe的解决方案如雨后春笋般涌现。Coughlin表示,通过充分利用闪存的高效性能,一些基层操作系统以及其他软件的运行效率也将会明显提高。“目前,一些厂商也正在围绕NVMe接口开发对应Fabric架构的网络存储模型,我们有望在2017年看到更多这项技术的相关信息。”
随着成本的下降和基础生产设施的逐步完善,闪存的内在性能大大提高,这使闪存日益成为数据中心更为普遍使用的产品。据VMWare存储和可用性业务部门产品副主席Lee Caswell介绍,“闪存介质使得固态存储的性能、灵活性和管理节约不能被忽视。随着价格暴跌,我们预计闪存销售将在2017年达到一个临界点。”
美光推出了适用于各类型数据中心的企业级SSD系列。系统管理员可以根据数据中心的工作负载流量需求,通过软件灵活调整硬盘的配置提升数据中心的存储性能。近几年来,包括美光在内众多厂商都在极力推动全闪存数据中心的升级,但是Coughlin认为该数据中心的普及仍需要一段时间。
据2016年8月发布的《Gartner全闪存阵列魔力象限》,随着众企业相继发布极具竞争潜力的产品,闪存阵列市场规模将继续扩大。高性能存储厂商DDN表示:“拥有多层存储结构闪存,以及在不同应用层面上功能集中的闪存将成为闪存部署方案的主流。但分歧仍会存在——如何最大化利用闪存的性能,全闪存阵列和软件定义闪存,哪个才是快速处理数据以及应用的最佳解决方案等。越来越多的企业采用闪存部署提升应用和I/O读写性能。这要求存储供应商必须‘跳出’应用层面,提升存储方案的整体工作流程效率。这意味着要将闪存部署在存储器的不同层级。”
Coughlin表示,2016年,3D闪存还处于产能低、成本高的过渡时期,同时平面式闪存亦未推陈出新。“我们预测2017年闪存存储器市场将会收紧,每GB的单价降幅将可能达到历史最低。随着12TB机械硬盘HDD和14TB氦气硬盘的相继面世,机械硬盘的价格将持续走低,加上闪存供应紧张及价格高涨,我们预测至少在近几年内,市场仍然将继续青睐低价的大容量机械硬盘。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。