2016年12月27日,北京得瑞领新科技有限公司(DERA)今天宣布推出DERA PCIe SSD新品及自主研发的TAI控制器。TAI控制器支持NVMe 1.2标准及PCIe 3.0接口,4K随机写IOPS可以达到500K,而4K随机读更是可以达到1250KIOPS,可以为大型数据中心以及企业客户提供高性能及高可靠性的固态存储解决方案。TAI控制器集合了DERA在闪存管理及SOC设计和工程实现方面所有的核心算法及技术,并已经成功流片,相关的模块及功能已经完成测试工作。
在过去的数十年中,主流存储介质也从磁带、机械硬盘发展到了今天的固态盘。据Gartner预测,2017年将是固态盘发展阶段中的一个重要分水岭,全球企业存储市场的SSD盘收入将超过HDD盘的收入。到2020年,所有的生产业务将运行在闪存介质上。而近年来专为闪存介质设计的NVMe协议已经逐步取代了AHCI协议成为商用SSD的首选。越来越多的服务器厂商开始在新一代产品上提供对NVMe 固态盘的支持,基于NVMe协议的SSD将成为解决服务器存储性能瓶颈的新通路。
Dera pcie ssd主要的性能参数列举
TAI控制器是硬件核心。DERA团队基于软硬件协同设计的理念,综合考虑存储数据路径效率、控制接口效率、闪存介质错误处理、闪存器件退化及失效处理等核心问题,定义并设计了核心的FTL(闪存转换层)算法软件和TAI控制器。TAI集成了多个闪存控制接口、高效灵活的DMA引擎、高强度ECC硬件编解码单元、意外掉电检测和切换等功能单元,在协同设计的软件算法调度下,可实现满足企业级可靠性要求的数据存储功能,并充分发挥NAND闪存的高速存取特点,为应用系统提供高可靠、低延时、性能一致性、高吞吐量的数据存储服务。
“DERA TAI系列产品在多项关键性能指标上都位于业界领先的地位,刷新了PCIe闪存的多项性能纪录。这得益于我们团队在核心IC设计上的能力。在控制器的设计过程中,我们准确划分了软硬件接口,灵活运用多种硬件协处理器,在实现了优越性能的同时还保证了优良的性能功耗比。”DERA公司CEO 张建涛表示:“而在行业领先的性能之下,是DERA团队对可靠性与可用性的高度重视,凭借专利的全生命周期评测技术,DERA PCIe SSD系列产品可以在其产品支持周期内得到控制器足够的性能保障,不会出现明显的性能衰减以至于影响客户的应用体验。此外,DERA在北美设立了专职人员与国内工程师负责闪存信道模型的建立,以确保采用不同闪存颗粒与批次产品的性能一致性。DERA作为中国本土厂商,95%的员工是有着长达十年以上从业经历的工程师,这也是我们可以在成立仅一年多的时间内就做出NVMe 控制器芯片及在纠错算法、NAND调度、自适应控制算法等领域取得相应自主知识产权的重要原因。与业界同行多以将SOC系统中不同模块分别流片并经历ECO的过程不同,DERA TAI芯片整体一次性流片成功,这让我们可以在更早的时间节点开始产品的测试工作,以加速产品面市的过程。”
作为一家本土创业厂商,DERA致力于提供完整的固态存储产品线。现阶段聚焦于基于高带宽低延迟的PCIe数据传输链路来提供领跑业界的极致性能产品,在此以外,还可以为有需求的客户开放定制化存取接口或提供定制化设计。团队掌握了针对闪存介质的数据完整性核心管理技术,对固态存储产品的性能、功耗、成本等各个维度的设计权衡有深入理解,这使得DERA可以进一步确保产品能满足企业级应用所需要的高可靠性与稳定性方面的需求,并在此基础之上提供极速的客户响应能力。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。