Pure Storage和思科合作打造了一款面向人工智能的融合FlashStack融合系统,这是一种AIRI microMINI,但其运行速度只有其一半。
FlashStack是一系列参考架构融合系统,采用Pure Storage全闪存阵列、思科UCS服务器和Nexus交换机。FlashStack主要的竞争对手包括NetApp和思科合作的FlexPod系统。
AIRI是Pure Storage与Nvidia合作打造的系统,结合了FlashBlade非结构化数据全闪存阵列(带有15个刀片)、2个Arista 100Gbit交换机和4个Nvidia DGX-1 GPU服务器,每个服务器配备8个Tesla V100 GPU,性能最高可以达到4 petaFLOPS。
后来推出的AIRI Mini系统性能为2 petaFLOPS,采用了更小的FlashBlade阵列(7个刀片)、2个DGX-1和2个思科Nexus 100Gbit交换机。
现在,思科和Pure Storage正在开发相当于小型化的AIRI Mini,但是采用的是FlashStack和思科服务器。
这个FlashStack for AI系统的验证设计具有以下特点:
FlashBlade
思科UCS C480ML M5服务器(ML =机器学习)
4U x 2插槽
2 x Xeon SP(28核/CPU)
最高3TB DRAM
8 x Nvidia SXM2 Tesla V100-32G Tensor Core GPU,支持NVlink
最多24个SAS/SATA驱动器(182TB)
6个NVMe驱动器
4 x 100GbitE
高可用性
思科Nexus交换机
该系统将在今年晚些时候推出。
C480ML M5服务器由思科基于云的管理产品管理。Pure Storage已经针对其存储开发了API,与Intersight集成。这可以实现自动存储配置,还可以通过Intersight编排功能管理Pure Storage功能。
所有这些都将在1月28日至2月1日期间举行的Cisco Live Barcelona上进行展示。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。