思科宣布推出了两款全闪存HyperFlex系统,性能最高提升了6倍之多。
HyperFlex是思科的超融合基础设施一体机(HCIA)产品,OEM Springpath的HALO软件,采用思科的UCS服务器和Nexus网络组件,是闪存和磁盘混合的系统。
现在有HyperFlex 220c和240c M4全闪存节点,都采用40Gbps网络。还会有3个或者更多这样的节点整合到单一系统中,有一堆UCS 6200或者6300系列框架互连。
该系统采用至强E02600 v4 CPU,每个插槽最多16个核心,最高1.5TB DDR4 DRAM,以及12Gbps SAS网络机制。这些节点采用Cisco Virtual Interface Card (VIC) 1227,并预装了vSphere ESXi 6.0软件。
下面这个表格显示了HX220c和HX240c混合配置和闪存配置的对比:
思科在博客中写道:“有了新的HyperFlex全闪存节点,以及第三代40 Gbit/s UCS框架网络,客户可以期待IOPS吞吐性能提高6倍之多,延迟缩短80%。”
思科HyperFlex HX240c硬件,最上面是全闪存版本
数据规格表中这样写道:“HX240c M4和HX240c M4全闪存节点可以配置采用各种UCS B系列刀片服务器和C系列机架服务器以搭建一个混合集群。”
预计所有HCIA硬件厂商很快都将在他们的产品系列中增加全闪存的配置。这个市场如此火,没有哪个提供商可以忍受长期性能不利的问题。
好文章,需要你的鼓励
在我们的日常生活中,睡眠的重要性不言而喻。一个晚上没睡好,第二天的工作效率就会大打折扣,而充足的睡眠不仅能让我们恢复精力,还能帮助大脑整理和巩固当天学到的知识。有趣的是,AI模型竟然也表现出了类似的“睡眠需求”。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
尽管模型上下文协议(MCP)自11月推出以来用户数量快速增长,但金融机构等监管行业仍保持谨慎态度。银行等金融服务公司虽然在机器学习和算法方面是先驱,但对于MCP和Agent2Agent(A2A)系统的采用较为保守。监管企业通常只使用内部代理,因为其API集成需要经过多年审查以确保合规性和安全性。专家指出,MCP缺乏基本构建块,特别是在互操作性、通信标准、身份验证和审计跟踪方面。金融机构需要确保代理能够进行"了解您的客户"验证,并具备可验证的身份识别能力。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。