在之前的科普中有聊到,SLC虽然在容量上和成本上具有劣势,但是在写入速度上却有着一定的优势。为了使固态硬盘容量可以做的更大,并且让价格更加亲民,目前主流的零售固态硬盘大多数都采用了TLC或者是QLC。因此,我们在固态硬盘中使用部分的NAND模拟SLC的工作模式,那么我们如何才能做到将容量、成本和写入速度的优势兼得呢?没错,这就是今天要介绍的SLC Cache。
SLC Cache加速的原理
前面有说到,SLC Cache本质是用MLC、TLC等颗粒模拟SLC的工作模式。以TLC来模拟SLC的工作方式举例。TLC,由于有8个状态,而SLC只有两个,那么如果将TLC也标记为两个状态,即000~011均认为是0,而100~111均认为是1,也就是说只判断最高位的状态,那么控制起来就更加简单了,同时速度也会大幅度提高,耐久度也有保证。这就是SLC Cache加速的基础。
SLC Cache的加速策略
1)动态容量
顾名思义,整个固态硬盘根据剩余容量来规划SLC Cache。这个模式的优点就是如果容量大,会有非常大的缓存冗余,在硬盘空间还不是很饱和的状态下,写入数据会非常漂亮,缺点就是随着硬盘空间的逐渐使用,整个硬盘的性能也会随着占用率逐渐下降,整个硬盘的使用体验一致性不强。当然随着目前固态主控的智能化,主控会更加合理的去划分空间,以保障在使用过程中尽可能的性能一致,并且固态硬盘的容量也与日俱增,硬盘有更多的空间去给主控规划,所以说动态策略掉速的问题也因此大大缓解。
上图为采用动态容量策略的致钛SC001
2)固定容量
固定容量的SLC Cache通常是SSD厂家通过应用场景的研究,结合SSD的容量设置一个固定的容量大小来做为SLC Cache。需要注意的是,并不是固定容量的SLC Cache用完后就没有了,而是每当固定容量的SLC Cache用掉一部分后,主控及FW会即时的重新动态的补充新的SLC Cache进来;所以这个“固定容量”其实是绵绵不绝的。只有极少数工况会一次性的把SLC Cache写完,绝大多数情况下一旦SSD空闲就会立即重新动态划分SLC Cache, 这样用户就始终感到的是高速写入。
上图为采用了固定容量策略的致钛PC005
SLC Cache带来了哪些好处?
1)极强的写入爆发力
如果大家了解一点计算机的话,应该都明白硬盘里的数据需要先传递给内存,内存再传输给其他的硬件。但是软件或者游戏的安装往往需要快速完成,这个时候就需要硬盘有极强的写入爆发力,而将固态硬盘里面的一部分存储空间用作SLC Cache就能提高固态硬盘爆发写入能力,在软件和游戏的安装中可以更加迅速。
2)防止Lower Page数据被带坏
当用户数据写到SLC时,不存在写Upper Page或者Extra Page带坏Lower Page数据的可能。
SLC Cache技术总结
作为缓存技术的一种,SLC Cache弥补了随着颗粒存储密度变大的掉速问题。为固态硬盘提供了优秀的爆发写入性能,以及容量和成本上的优势。并且随着主控的能力的逐步提升,未来采用SLC Cache的固态硬盘峰值性能也能有更加长久的保持。所以你对这个技术是什么看法呢?欢迎在下方留言一起讨论,我们下期再见~
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。