Pure Storage和思科合作打造了一款面向人工智能的融合FlashStack融合系统,这是一种AIRI microMINI,但其运行速度只有其一半。
FlashStack是一系列参考架构融合系统,采用Pure Storage全闪存阵列、思科UCS服务器和Nexus交换机。FlashStack主要的竞争对手包括NetApp和思科合作的FlexPod系统。
AIRI是Pure Storage与Nvidia合作打造的系统,结合了FlashBlade非结构化数据全闪存阵列(带有15个刀片)、2个Arista 100Gbit交换机和4个Nvidia DGX-1 GPU服务器,每个服务器配备8个Tesla V100 GPU,性能最高可以达到4 petaFLOPS。
后来推出的AIRI Mini系统性能为2 petaFLOPS,采用了更小的FlashBlade阵列(7个刀片)、2个DGX-1和2个思科Nexus 100Gbit交换机。
现在,思科和Pure Storage正在开发相当于小型化的AIRI Mini,但是采用的是FlashStack和思科服务器。
这个FlashStack for AI系统的验证设计具有以下特点:
FlashBlade
思科UCS C480ML M5服务器(ML =机器学习)
4U x 2插槽
2 x Xeon SP(28核/CPU)
最高3TB DRAM
8 x Nvidia SXM2 Tesla V100-32G Tensor Core GPU,支持NVlink
最多24个SAS/SATA驱动器(182TB)
6个NVMe驱动器
4 x 100GbitE
高可用性
思科Nexus交换机
该系统将在今年晚些时候推出。
C480ML M5服务器由思科基于云的管理产品管理。Pure Storage已经针对其存储开发了API,与Intersight集成。这可以实现自动存储配置,还可以通过Intersight编排功能管理Pure Storage功能。
所有这些都将在1月28日至2月1日期间举行的Cisco Live Barcelona上进行展示。
好文章,需要你的鼓励
斯坦福大学研究发现,主要用英语训练的大型语言模型竟能自发学会处理其他语言任务,无需明确教学。这种跨语言迁移能力随模型规模增大而显著提升,通过形成"通用语义空间"实现不同语言间的知识迁移。研究为降低多语言AI开发成本、支持资源稀缺语言提供了新途径,但仍面临性能不均衡、文化适应性等挑战。
从金冠到雅客、友臣、蜡笔小新,这些曾风靡小卖铺与超市货架的老牌零食厂商,一度因渠道滞后、品牌老化而淡出人们视野。而如今,它们在拼多多上正迎来一场集体复兴。
阿姆斯特丹大学与Salesforce合作开发的奖励引导推测解码(RSD)技术,通过让小模型处理简单任务、大模型解决复杂问题的智能分工,在保持推理准确率的同时大幅提升计算效率。该技术在数学推理等任务中表现出色,计算量最多可减少75%,为AI应用的普及和成本降低提供了重要技术支撑。