2014年5月底,三星宣布了第二代3D垂直堆叠闪存“V-NAND”,并先后用于850 Pro、850 EVO固态硬盘,还在多个场合公开了不少技术细节。
正在举行的国际固态电路会议ISSCC 2015上,三星再次公开了3D V-NAND闪存技术的一些细节资料,涉及更加底层的闪存结构,这里我们粗略地看一下。
最核心的是两代3D闪存的结构、密度对比。第二代基于三位的TLC NAND,可以堆叠32层,单颗容量128Gb,所占面积68.9平方毫米,存储密度为1.86Gb/mm2。
而第一代基于双位的MLC NAND,可以堆叠24层,如果想达到128Gb容量,则需要两组64Gb闪存单元并排,此时面积133平方毫米,存储密度0.93Gb/mm2,差了多达1.25倍。
更新的技术,“肚量”更大的TLC规格,都是第二代存储密度大增的关键因素,但不可否认的是,TLC在性能、寿命上都比MLC差不少,因此三星现在追求更多的还是容量。
从平面到立体,并不是个简单的堆积过程。2D闪存达到一定密度后,电荷存储能力会大大下降,相邻闪存单元的干扰也会非常严重,无法进一步提升,为此传统的闪存编程分为三个阶段,以便更精确地控制电荷电量。
3D闪存则无需多阶段编程,三星通过高速编程(HSP)整合为单独一个阶段,所需时间和复杂度大大减少。
三星宣称,HSP编程时间只有传统的一半,功耗也能降低40%。
另外通过数据路径层的调整,以及其他各种相关改进,三星还达成了1Gbps的高速传输速度。
好文章,需要你的鼓励
开放闪存平台(OFP)旨在用直接访问的闪存盒替代全闪存阵列,每个闪存盒配备控制器DPU、Linux系统和并行NFS软件。该倡议由Hammerspace主导,针对新云、超大规模和AI公司在数据中心设计演进中面临的基础设施限制。OFP通过结合IPU/DPU技术、闪存优化机箱和Linux协议,提供高密度、低功耗的存储解决方案,满足AI应用从PB级向EB级数据容量需求的扩展。
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
ERP系统市场近年来相对稳定,但AI正在改变一切。供应商们正竞相在产品组合中嵌入AI功能,构建包括可组合应用、集中数据存储和可扩展云平台的生态系统。Oracle凭借AI投资超越SAP成为ERP收入领导者,而AI代理已从实验阶段进入实际应用,能够管理整个工作流程并进行自动化决策。本文盘点了Oracle、SAP、微软等十大最具影响力的ERP厂商及其AI战略。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。