在2018年下半年发布XPoint DIMM的前夕,英特尔和Micron公司已经扩大了他们位于美国犹他州的XPoint生产工厂。
3D XPoint是英特尔-Micron固态存储技术,要比NAND更快、更贵,但是不如DRAM速度快、成本高。3D XPoint的亮点在于提供了比典型RAM更好的可寻址非易失性存储空间,访问时间要比NAND更短。它以驱动器的形式提供,但是尚未作为系统内存DIMM。
在Lehi工厂的60号楼已经扩建,从而可以生产出更多的3D XPoint芯片,用于P4800X和900P等英特尔Optane产品。英特尔和Micron的合资公司IM Flash从2015年就开始生产XPoint芯片了。
今天的第一代芯片有两层,英特尔刚刚宣布了一款750GB的Optane驱动器将采用这些芯片。Micron也有自己QuantX品牌的3D XPoint产品,但是到目前为止还没有出货任何设备。
我们从Micron公司那里了解到,未来两代XPoint正在开发中。这可能会将XPoint芯片内部的分层从2层增加到4层,然后再到8层,每次增加层数芯片容量都会翻番。另外,也可以通过堆叠芯片来达到同样的目的。
还有另外一种说法和猜测是,这两种增加容量的方法都面临困难。
英特尔在11月14日举行的USB Global Technology Conference大会上他谈到了XPoint DIMM路线图。英特尔公司高级副总裁、数据中心集团总经理Navin Shenoy谈到XPoint DIMM时表示:“我们将在数据中心运用这种3D XPoint,DIMM更像是内存DIMM、DRAM DIMM,从2018年下半年开始。”
这种技术的主要用途是通过在非易失性RAM中保存大量记录来加速内存数据库。
Shenoy表示:“在几周前的Oracle OpenWorld大会上,Oracle展示了结合Xeon Scalable处理器的3D XPoint解决方案,展示了一款100%运行在3D XPoint中的3TB内存数据库。这在纯DRAM系统中是无法实现的。”
我们可以假设,Oracle的展示涉及到了XPoint DIMM的早期样本。
其他用户还包括大数据分析、AI训练、虚拟机托管和超级计算机级应用。英特尔表示,微软、Oracle、SAP和VMware都将支持XPoint DIMM。这意味着XPoint DIMM可能会在主机处理器和主板上要求有专门的支持,还有底层操作系统或者虚拟机管理程序,才能充分发挥作用。我们可以看看Xeon Scalable处理器的升级结果如何。
英特尔需要扩建XPoint晶圆工厂来生产足够多的DIMM,需要对其进行定价让使用这种非易失性DIMM内存的3TB数据库系统价格合适。我们还有9个月的时间等待结果。预计将会有更多关注XPoint DIMM的人在一起等待。与此同时,三星的Z-SSD技术如果也推出了DIMM格式,可能会威胁到英特尔。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。