HGST公司在今年的闪存记忆体峰会上再度成为力与美的结合,其相变存储器不出所料又一次牢牢抓住了与会者们的眼球。
在这场热火朝天的闪存业务盛会之上,HGST公司的相变存储器技术拿出了令人叹为观止的参数表现。关注这一技术的朋友可能还记得,去年HGST的相变存储器以PCIe PCM SSD的形式亮相,其延迟约为1.5微秒、IOPS则在300万。而今年其则采用通过InfiniBand实现接入的RDMA PCM SSD为载体,512 B数据块读取延迟仍然控制在2微秒以内、2 KB数据块吞吐能力更是高达每秒3.5 GB。
作为相关背景,易失性DRAM存储方案在电力使用成本方面相当昂贵,而HGST打造的非易失性PCM卡则用不着大量能源支持,同时又能提供与DRAM相仿的速度表现。
InfiniBand互连方案来自Mellanox公司,其市场营销副总裁Kevin Deierling在一份声明当中的指出:“未来,我们的目标是同时利用InfiniBand与融合型以太网RDMA(简称RoCE)为PCM提供接入支持,从而提高可扩展水平并降低内存内应用程序的实现成本。”
HGST公司还宣称其正在构建一套持久性内存体系,并将其描述为一套基于PCM、支持RDMA的内存内计算机集群架构。该公司同时表示,其主机服务器不需要对BIOS或者应用软件本身作出任何修改。
在此次闪存记忆体峰会的演示环节当中,HGST拿出的RDMA连接型PCM存储方案在速度上较NAND更快,不过目前仍没有正式产品可供买家选择。
那么HGST方面目前的进度如何?去年其PCM芯片由美光公司负责提供。让我们假定今年芯片供应方仍然由美光充当,而HGST的思路也确实是销售PCM存储卡产品。就当前的状况看,HGST明显还没有准备好,因为该公司还没有将任何基于PCM的存储卡产品投放市场。
看起来,HGST公司似乎打算开发出一套支持RDMA的InfiniBand或者高速以太网连接PCM设备,并将其添加至服务器内存地址空间当中,从而帮助用户实现即将逐步来临的内存内计算需求。
远程PCM利用远程直接内存访问(简称RDMA)协议在网络基础设施之上——例如以太网或者InfiniBand——实现内存映射,从而构建起一套无缝化的内存内计算大规模部署方案。这套基于网络的方案允许应用程序利用来自多台计算机设备的非易失性PCM存储资源,从而根据实际需求进行规模扩展。
HGST公司CTO Steve Campbell在声明当中表示:“我们与Mellanox方面通力协作,证明非易失性主内存完全可以被映射到整套网络环境当中,同时在延迟与性能水平方面充分满足新兴内存内计算应用程序的具体需要。”
Diablo Technologies公司的Memory 1属于服务器之内依靠DIMM进行连接的NAND存储方案,其作为DRAM的替代与扩展机制存在。HGST公司的持久性内存体系则属于联网解决方案,其能够支持的规模水平远超DRAM替代与扩展这一层面。那么其访问速度是否能够压倒Memory 1呢?目前我们还没有明确答案。
英特尔与美光公司打造出的3D XPoint内存在速度上超过了NAND,但相较于DRAM仍然略逊一筹,而且可能会在2016年年内正式投放市场。目前尚不清楚3D XPoint产品在价格与性能表现方面同PCM相比孰优孰劣。
就目前来讲,HGST公司提供的演示成果只能算是PCM的一次初步尝试。如果大家对此抱有兴趣,不妨亲自到本月11号到13号于加利福尼亚州圣克拉拉市圣克拉拉会展中心召开的2015闪存记忆体峰会上看一看,HGST公司就在645号到647号展台等着您。
好文章,需要你的鼓励
人工智能开发商Anthropic为其旗舰聊天机器人Claude推出新的医疗健康功能,用户现在可以与服务共享医疗记录以更好地了解自己的健康状况。Claude可以连接官方医疗记录和苹果健康等健身应用,进行更个性化的健康对话。新功能现已向美国的Claude Pro和Max订阅用户开放。公司强调该工具不用于诊断或治疗建议,而是帮助用户理解复杂医疗报告,为医患沟通做准备,并承诺严格保护用户隐私数据。
上海AI实验室联合团队开发RoboVIP系统,通过视觉身份提示技术解决机器人训练数据稀缺问题。该系统能生成多视角、时间连贯的机器人操作视频,利用夹爪状态信号精确识别交互物体,构建百万级视觉身份数据库。实验显示,RoboVIP显著提升机器人在复杂环境中的操作成功率,为机器人智能化发展提供重要技术突破。
谷歌发布通用商务协议(UCP)开放商务标准,旨在让AI智能体自动化整个购物流程,从产品发现到支付再到售后服务。该协议与Shopify、Target、沃尔玛等零售商合作开发,支持AI智能体协同处理客户购买流程各环节。谷歌还推出品牌商业智能体和直接优惠工具,优化AI搜索中的购物体验。麦肯锡预测智能体商务到2030年将成长为3万亿美元市场。
英伟达研究团队提出GDPO方法,解决AI多目标训练中的"奖励信号坍缩"问题。该方法通过分别评估各技能再综合考量,避免了传统GRPO方法简单相加导致的信息丢失。在工具调用、数学推理、代码编程三大场景测试中,GDPO均显著优于传统方法,准确率提升最高达6.3%,且训练过程更稳定。该技术已开源并支持主流AI框架。