Solidigm推出了采用E1.S规格的液冷版PS1010 SSD,通过这一设计能够更好地支持高密度AI工作负载,避免传统方案出现的过热问题。
正如今年3月承诺的那样,D7-PS1010已通过增加E1.S版本实现液冷兼容,该版本比原有的U.2和E3.S规格更长更窄。Solidigm表示,这种规格支持"单面直接芯片液冷技术"。
这个"单面"术语容易引起混淆,似乎暗示冷板只有一个表面接触驱动器的一侧。但Solidigm产品与市场高级副总裁Greg Matson表示:"这是世界首个单面冷板解决方案,能够冷却SSD的两面,为缓解高密度AI环境中SSD承受的压力提供最高效的存储子系统。"
在一段YouTube视频中,Solidigm领导叙事总监兼布道师Scott Shadley向Tech Field Day观众解释道:"我们得到了8x15毫米E1.S的占地面积规格,这正是英伟达参考设计中直连存储的核心配置,他们要求'想办法去掉风扇'。传统做法是安装八个这样的设备,配上风扇和散热片。"
最终的液冷SSD模块"为每个驱动器配备了液体进出端口...我们有一个单冷板接触驱动器侧面...我们设计了驱动器的框架和实际外壳,以支持弹簧加载的单面冷板连接"。"冷板只接触驱动器的一面,但通过材料和框架设计实现的主动传导冷却,让我们能够冷却产品的顶侧。"因此它并非字面意义上冷却SSD的两面,而是接触并冷却一面,通过内部热传导使整个SSD包括另一面都得到冷却。
该公司表示,PS1010 E1.S SSD"是地球上针对直连存储AI工作负载最快的PCIe 5.0 SSD之一",意味着它可以安装在液冷AI服务器中。由于冷板采用弹簧加载设计,该产品还支持热插拔。
Solidigm声称,与Micron 9550等类似产品相比,PS1010 E1.S 15毫米风冷SSD的能耗降低高达33%。
Solidigm E1.S PS1010提供9.5毫米和15毫米两种规格,容量包括3.84TB和7.68TB。公司表示正与Supermicro等服务器ODM和OEM厂商密切合作,将PS1010 9.5毫米和15毫米E1.S SSD纳入推荐供应商名单,同时适配其他AI和服务器系统。
Q&A
Q1:Solidigm PS1010 E1.S SSD的液冷技术有什么特点?
A:PS1010 E1.S SSD采用单面冷板设计,虽然冷板只接触驱动器一面,但通过特殊的材料和框架设计实现主动传导冷却,能够有效冷却整个SSD。这是世界首个能够冷却SSD两面的单面冷板解决方案,专门为高密度AI环境设计。
Q2:PS1010 E1.S SSD相比传统产品有哪些优势?
A:相比Micron 9550等类似产品,PS1010 E1.S 15毫米风冷版本能耗降低高达33%。作为地球上最快的PCIe 5.0 SSD之一,它专为直连存储AI工作负载优化,支持热插拔功能,并可安装在液冷AI服务器中。
Q3:PS1010 E1.S SSD有哪些规格和容量选择?
A:PS1010 E1.S SSD提供9.5毫米和15毫米两种厚度规格,容量包括3.84TB和7.68TB。目前Solidigm正与Supermicro等服务器制造商合作,将这些规格纳入推荐供应商名单,适配各种AI和服务器系统。
好文章,需要你的鼓励
OpenAI发布ChatGPT新功能Pulse,可在用户睡眠期间生成个性化报告,提供5-10条简报帮助用户快速了解当日重要信息。该功能旨在让用户像查看社交媒体一样优先使用ChatGPT。Pulse首先向每月200美元的Pro订阅用户开放,未来计划扩展至所有用户。功能支持连接Gmail、日历等应用,可解析邮件、生成日程安排。报告以卡片形式展示,包含AI生成的图像和文本,涵盖新闻摘要、个性化建议等内容。
这项由谷歌DeepMind研究团队完成的开创性研究首次系统阐述了AI智能体经济的概念框架。研究提出"沙盒经济"模型,从起源性质和边界渗透性两个维度分析AI智能体经济形态,预测未来将出现自然涌现且高度透水的AI经济网络。研究详细探讨了科学加速、机器人协调、个人助手等应用场景,提出基于拍卖机制的公平资源分配方案和使命经济概念,并深入分析了技术基础设施需求、社区货币应用以及相关风险防范措施。
AI平台公司Clarifai发布新推理引擎,声称能让AI模型运行速度提升一倍,成本降低40%。该系统采用多种优化技术,从CUDA内核到高级推测解码,能在相同硬件上获得更强推理性能。第三方测试显示其在吞吐量和延迟方面创下行业最佳记录。该产品专门针对推理过程优化,特别适用于需要多步骤响应的智能体和推理模型。
中国人民大学研究团队提出LoFT方法,通过参数高效微调基础模型解决长尾半监督学习中的数据不平衡问题。该方法利用预训练模型的良好校准特性改进伪标签质量,并扩展出LoFT-OW版本处理开放世界场景。实验显示,仅使用传统方法1%的数据量就能取得更优性能,为AI公平性和实用性提供了新的解决方案。