如今一提到8K 10bit HDR这类的视频录制,最先考虑的就是只能使用价格昂贵的CF express存储卡。因为CF卡如今已经可以支持PCIe总线和NVMe协议,和我们使用的SSD固态硬盘在同一起跑线。反观SD存储卡还正处在最高UHS-II阶段,两者在性能上有着非常大的差距。
为了补足SD存储卡在性能方面的短板,SD协会就开始布局新的SD Express规范,以达到提升SD存储卡性能的目的。随即SMI慧荣科技针对该规范发布了旗舰型SM2708 SD Express控制器解决方案,该解决方案支持最新 SD 8.0 规范并兼容UHS-I规格,用户可以与最新的SD Express卡技术无缝衔接。
SM2708 SD Express控制器解决方案采用PCIe Gen3 x2 接口及NVMe 1.3规范,并支持最新一代 3D NAND,搭载慧荣科技独有的 NANDXtend® ECC 技术、数据路径保护和可编程固件,可大幅提高3D NAND 的可靠性和耐用性,完美提供超高性能来满足各行业对数据存储性能要求严苛的应用需求。
目前威刚科技已经与慧荣科技进行了深度定制,推出了基于SM2708主控的ADATA 512GB SD Express存储卡,接下来笔者就通过测试来看看SM2708主控的性能如何。

为了能够彻底发挥出SM2708主控的性能,我们选择了瑞昱半导体RTL9211DS主控制芯片的读卡器,也是最新一代支持SD8.0/SD7.1协议的读卡器,由于还未上市,所以笔者拿到的也是工厂内测款。

据了解,瑞昱RTL9211DS主控制器是业界唯一支持PCIe ASPM主动电源状态管理协议的方案,能有效降低SD8.0/SD7.1记忆卡使用时所产生的热功耗,提供系统更加稳定、可靠的存储环境。

通过大家都比较熟悉的CrystalDiskMark测试,能够看出基于SM2708主控的威刚ADATA SD Express存储卡顺序读取速度达到845MB/s,顺序写入速度也高达748MB/s,性能表现非常优秀。

AS SSD Benchmark是测试固态硬盘的专用软件,相对传统SD卡很少用该软件。不过目前SD Express存储卡同样也是基于PCIe总线和NVMe协议,所以还是有很大参考意义的。从测试成绩来看,总分1358分已经与主流桌面SSD性能不相上下,尤其是小文件的4K 64队列深度下,写入性能达到740MB/s,完全可以作为笔记本的扩展硬盘使用。
在实际文件拷贝测试中,分别测试了威刚ADATA 512GBSD Express存储卡的读取和写入能力。测试文件为《星际穿越》的高清蓝光版片源,容量大小接近18GB。

当文件从存储卡拷贝到电脑桌面时,反映的是存储卡的读取性能。使用FastCopy软件完成拷贝后,看到读取速度达到812MB/s,仅用时22秒就完成了拷贝,这样的性能确实令人大跌眼镜。

再降文件从桌面拷贝到存储卡后,FastCopy软件显示为拷贝速度581MB/s,写入时间为31秒,同样性能出众。
观点总结:
通过测试不难看出,慧荣科技发布的SM2708主控新品将SD存储卡的性能提升到前所未有的新高度,可以媲美固态硬盘的读写速度可以应对未来更高端的相机、汽车存储及其它需要超高数据存储等应用。
并且SD Express存储卡也给移动硬盘领域提供了新的方向,能够将产品更加迷你化,提升便携性,同时又具备很高的读写速度,相信未来基于SM2708主控的存储卡会很快获得市场认可,不断引领SD存储介质向更高速和更大容量发展。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。