HGST公司在今年的闪存记忆体峰会上再度成为力与美的结合,其相变存储器不出所料又一次牢牢抓住了与会者们的眼球。
在这场热火朝天的闪存业务盛会之上,HGST公司的相变存储器技术拿出了令人叹为观止的参数表现。关注这一技术的朋友可能还记得,去年HGST的相变存储器以PCIe PCM SSD的形式亮相,其延迟约为1.5微秒、IOPS则在300万。而今年其则采用通过InfiniBand实现接入的RDMA PCM SSD为载体,512 B数据块读取延迟仍然控制在2微秒以内、2 KB数据块吞吐能力更是高达每秒3.5 GB。
作为相关背景,易失性DRAM存储方案在电力使用成本方面相当昂贵,而HGST打造的非易失性PCM卡则用不着大量能源支持,同时又能提供与DRAM相仿的速度表现。
InfiniBand互连方案来自Mellanox公司,其市场营销副总裁Kevin Deierling在一份声明当中的指出:“未来,我们的目标是同时利用InfiniBand与融合型以太网RDMA(简称RoCE)为PCM提供接入支持,从而提高可扩展水平并降低内存内应用程序的实现成本。”
HGST公司还宣称其正在构建一套持久性内存体系,并将其描述为一套基于PCM、支持RDMA的内存内计算机集群架构。该公司同时表示,其主机服务器不需要对BIOS或者应用软件本身作出任何修改。
在此次闪存记忆体峰会的演示环节当中,HGST拿出的RDMA连接型PCM存储方案在速度上较NAND更快,不过目前仍没有正式产品可供买家选择。
那么HGST方面目前的进度如何?去年其PCM芯片由美光公司负责提供。让我们假定今年芯片供应方仍然由美光充当,而HGST的思路也确实是销售PCM存储卡产品。就当前的状况看,HGST明显还没有准备好,因为该公司还没有将任何基于PCM的存储卡产品投放市场。
看起来,HGST公司似乎打算开发出一套支持RDMA的InfiniBand或者高速以太网连接PCM设备,并将其添加至服务器内存地址空间当中,从而帮助用户实现即将逐步来临的内存内计算需求。
远程PCM利用远程直接内存访问(简称RDMA)协议在网络基础设施之上——例如以太网或者InfiniBand——实现内存映射,从而构建起一套无缝化的内存内计算大规模部署方案。这套基于网络的方案允许应用程序利用来自多台计算机设备的非易失性PCM存储资源,从而根据实际需求进行规模扩展。
HGST公司CTO Steve Campbell在声明当中表示:“我们与Mellanox方面通力协作,证明非易失性主内存完全可以被映射到整套网络环境当中,同时在延迟与性能水平方面充分满足新兴内存内计算应用程序的具体需要。”
Diablo Technologies公司的Memory 1属于服务器之内依靠DIMM进行连接的NAND存储方案,其作为DRAM的替代与扩展机制存在。HGST公司的持久性内存体系则属于联网解决方案,其能够支持的规模水平远超DRAM替代与扩展这一层面。那么其访问速度是否能够压倒Memory 1呢?目前我们还没有明确答案。
英特尔与美光公司打造出的3D XPoint内存在速度上超过了NAND,但相较于DRAM仍然略逊一筹,而且可能会在2016年年内正式投放市场。目前尚不清楚3D XPoint产品在价格与性能表现方面同PCM相比孰优孰劣。
就目前来讲,HGST公司提供的演示成果只能算是PCM的一次初步尝试。如果大家对此抱有兴趣,不妨亲自到本月11号到13号于加利福尼亚州圣克拉拉市圣克拉拉会展中心召开的2015闪存记忆体峰会上看一看,HGST公司就在645号到647号展台等着您。
好文章,需要你的鼓励
OpenAI发布ChatGPT Atlas AI浏览器,支持网页问答、历史查询和邮件改写等功能。同时曝光秘密项目Mercury,雇佣约100名前投行精英以每小时150美元训练AI金融模型。公司还因用户滥用Sora生成马丁·路德·金视频而暂停相关功能。此外,医疗AI搜索引擎OpenEvidence获2亿美元融资,估值60亿美元。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
随着Chrome和Safari主导浏览器市场,众多替代浏览器正在挑战这些行业巨头。本文梳理了当前顶级替代浏览器,包括AI驱动的浏览器如Perplexity的Comet、Arc公司的Dia、Opera的Neon和OpenAI的Atlas;注重隐私的浏览器如Brave、DuckDuckGo、Ladybird和Vivaldi;以及专注特定领域的浏览器如Opera Air和SigmaOS。这些浏览器通过AI集成、隐私保护、定制化和专注用户福祉等特色功能,为用户提供了多样化的浏览体验选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。