计算机芯片制造商美光(Micron)本周一证实,计划以15亿美元收购竞争对手英特尔在其闪存合资公司IM Flash Technologies中的股份。
IM Flash合资公司在美国犹他州Lehi拥有一家代工厂,该代工厂成立于2005年,是目前全球唯一的3D XPoint内存技术生产商。3D XPoint是一种非易失性内存或者永久内存,是由这两家公司联合开发,可提高存储性能并降低服务器内存成本。
据称,3D XPoint技术比旧的NAND闪存技术快1000倍,耐用高1000倍,比动态随机内存密度高10倍,这主要得益于被称为3-D堆叠的制造工艺,其中存储层彼此堆叠以提高密度。目前3D XPoint技术被用于英特尔面向数据中心的Optane SSD产品系列中。
根据最初的合资协议条款,美光已经拥有IM Flash 51%的股份,并且有权在某些合同条件下收购剩余股份。美光在去年10月首次透露有意行使该权利。预计这次交易将在2019年7月14日至2020年1月14日期间完成。
美光决定收购英特尔在IM Flash中的股份几乎已成定局,因为两家公司去年已经宣布将结束对第二代3D XPoint的联合开发工作。展望未来,美光与英特尔将独立开发3D XPoint技术,以满足其特定的产品需求。
“位于犹他州的工厂为我们提供了制造灵活性和高技能人才,以推动3D XPoint的开发和创新,以实现我们的新兴技术路线图,”美光首席执行官Sanjay Mehrotra在一份声明中这样表示。
英特尔将不能再继续使用该工厂,也就是说未来英特尔将如何生产其3D XPoint产品尚不清楚。有一种可能是,与美光单独进行协议谈判以继续使用犹他州工厂,或者,英特尔可以改造其位于中国大连的Fab 68工厂。英特尔声明中表示:“我们有很多可选的生产制造方案,而且我们已经出货Optane技术产品已经有一年多时间了。”
Constellation Research分析师Holger Mueller表示,由于目前市场对3D XPoint产品的需求不高,所以英特尔如和做出决定有些棘手,因为3D XPoint产品并不需要多个工厂。不过,他猜测英特尔最有可能选择中国工厂。
Mueller说:“英特尔正在这里采取一种非典型的风险型供应链战略,但只有未来我们才能看到这一战略是否奏效。但同时我们也希望美光能够尽快为3D XPoint创造更多需求。”
英特尔的产品组合包括Optane双列直插式内存模块,这是2017年推出的一系列动态随机访问内存集成电路。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“两家公司正在分道扬镳,我完全希望英特尔能够为其下一代Optane内存承担生产控制权。美光是一家陷入危机的公司,真的需要谨慎选择下一次投资。对于英特尔而言,Optane是其整体Xeon Scalable数据中心平台策略的一个重要差异化因素。”
美光仍然没有发布任何基于3D XPoint的产品,但已经承诺在今年年底前推出。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。