全新的256GB、512GB和1TB闪存设备允许智能手机和移动应用程序充分利用5G网络的高速率
为了继续推动通用闪存(1)(UFS)技术的发展,全球存储器解决方案的领导者铠侠株式会社近日宣布,具有更高性能的第二代UFS 4.0嵌入式闪存设备已开始送样(2)。以小封装尺寸提供快速的嵌入式存储传输速度,适用于各种下一代移动应用。铠侠 UFS 产品性能的改进使这些应用程序能够利用 5G 的连接优势,从而加快下载速度、减少延迟时间并改善用户体验。

铠侠UFS 4.0产品将BiCS FLASH™ 3D 闪存和控制器集成在 JEDEC 标准封装中,并结合了 MIPI M-PHY 5.0 和 UniPro 2.0,支持每通道高达 23.2Gbps或每设备 46.4 Gbps 的理论接口速度,并向下兼容 UFS 3.1。
· 与上一代相比的性能改进(3):顺序写入速度提搞升18%、随机写入提高30%,以及随机读取性能提升13%。
· 支持高速链路启动序列 (HS-LSS) 特性: 在传统 UFS中,设备和主机之间的链路启动(M-PHY 和 UniPro 初始化序列)以低速 PWM-G1(3~9Mbps (4))执行,但是使用 HS-LSS,可以以更快的 HS-G1 Rate A(1248Mbps)执行。与传统方法相比,预计这将使链路启动时间缩短约 70%。
· 增强安全性:通过利用高级 RPMB(重放保护内存块)可以更快地读写访问安全数据,例如 RPMB 区域上的用户凭证。 RPMB 清除(RPMB Purge)以确保可以安全快速地清理丢弃的不需要的RPMB数据。
· 支持Ext-IID:旨在与 UFS 4.0 主机端的多循环队列 (MCQ) 一起使用,以提高随机性能。
注:
1. UFS(通用闪存存储)是根据JEDEC UFS标准规范研发的一种嵌入式存储产品的产品种类。由于其采用串行接口,UFS可支持全双工模式,这使得主机处理器和UFS器件之间可同时进行读写。
2. 公司最新的产品可提供三种不同容量:256GB、512GB和1TB。256GB和512GB的产品已于本月开始送样,1TB的产品计划将在10月以后开始送样。样品的规格可能与商业产品有所不同。
3. 对比铠侠全新的512GB UFS4.0嵌入式闪存设备和铠侠上一代512GB UFS 4.0嵌入式闪存设备(零件编号 THGJFJT2T85BAT0)。
4. PWM-G1的通信速度取决于主机和设备。
· 当提及铠侠产品时:产品密度是根据产品内的内存芯片密度来确定的,而不是最终用户可用于数据存储的内存容量。消费者可使用的容量会因开销数据区域(overhead data areas)、格式化、坏块和其他限制而变少,而且也可能因主机设备和应用程序而变化。如需了解详情,请参考适用的产品规格。根据定义,1KB = 2^10字节 = 1,024字节;1Gb = 2^30比特 = 1,073,741,824比特;1GB = 2^30字节 = 1,073,741,824字节;1Tb = 2^40比特 = 1,099,511,627,776比特。
· 读写速度是铠侠株式会社在特定测试环境中获得的最佳值,铠侠株式会社不保证单个器件的读写速度。读写速度可能取决于所使用的设备和所读取或写入的文件大小。
· 公司名称、产品名称和服务名称可能是第三方公司的商标。
公司简介
铠侠是全球存储器解决方案领导者,致力于开发、生产和销售闪存及固态硬盘(SSD)。东芝公司于1987年发明了NAND闪存, 2017年4月,铠侠前身东芝存储器集团从东芝公司剥离。铠侠致力于通过产品、服务和系统,为客户提供选择,为社会创造基于存储器的价值,通过“存储器”提升世界。铠侠创新的3D闪存技术BiCS FLASH™,正在塑造诸多高密度应用的未来存储方式,其中包括高级智能手机、PC、SSD、汽车和数据中心等。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。