最新思科云产业调研报告显示,到2020年全球数据中心内存储的数据将增长5倍,达到915EB。思科近日宣布针对新一代存储网络推出技术创新,该存储网络将帮助用户访问、管理并自动处理存储数据,帮助企业实现全数字化业务发展目标。
同时,思科通过集成MDS存储导向器和统一计算系统(UCS)矩阵,为存储网络用户提供32Gb光纤通道性能、存储网络分析功能以及面向闪存设备的基于FC的非易失性存储器标准(NVMe)。
思科数据中心解决方案部产品管理高级总监Thomas Scheibe表示:"思科一直致力于开拓和发展存储网络市场,此次思科推出的前沿科技创新将推动全数字化经济发展,并保护客户的投资。通过完成高性价比模块的简单安装,用户可升级到能提供32Gb矩阵、存储区域网络分析和闪存支持的新一代存储网络。"
思科发布的亮点包括:
• 面向闪存存储的高带宽存储区域网络:全新MDS 9700 48端口32Gbps光纤通道交换模块使用户能够基于不断增长的需求进行无缝扩展。
o 投资保护:借助思科易于升级的机箱架构,于2013年推出的思科MDS 9700现可进行升级,以支持32G光纤通道。
o 最高端口密度的导向器:每个导向器配备768个线速32Gbps的光纤通道端口,满足扩展需要,实属业界领先。
o 领先的性能:1536 Gbps全双工聚合性能,可为高性能虚拟化服务器、全闪存阵列和NVMe阵列提供高速32Gbps存储联接能力。
• 增强的服务器存储联接能力:在思科UCS上提供32G Broadcom/Emulex和Cavium/Qlogic光纤通道主机总线适配器(HBA)支持。
为了满足存储区域网络可扩展性要求,思科与Broadcom/Emulex和Cavium/Qlogic协作,联手面向用户推出高带宽存储联接能力,并在思科UCS C系列上为32Gb光纤通道主机总线适配器提供无缝支持。32Gb主机总线适配器设计用于满足现代网络存储系统的要求,利用高性能和低延迟固态存储硬盘来提供高速缓存和持久性存储,同时利用普通机械硬盘阵列来满足其他需求。
集成分析引擎提供深入可见性
" 借助思科MDS 32G模块内置的基于硬件的高性能分析引擎,企业能够在整个存储区域网络上以线速对每次交换、每个序列、每个数据包实时获得全面的可见性。用户将能够实时分析FC交换并报告各项指标,对网络中任何潜在的性能问题提供全面、及时的监测,以做出明智的运营决策。
提高效率和简化运营
思科MDS存储导向器和思科UCS C系列服务器现在支持基于FC的NVMe,使终端用户能够扩展闪存设备,以实现更快的应用响应以及更出色的可扩展性。
o 多协议提升灵活性:MDS交换机可同时支持基于FC和FCoE的NVMe和小型计算机系统接口(SCSI)。
o 无缝插入:通过无中断升级到NX-OS 8.x版本,MDS交换机可支持NVMe,并且无需更换硬件。
o 投资保护:当前和未来所有的MDS交换机均支持基于矩阵的NVMe,包括MDS 9700、9396S、9250i和9148S。
支持引言
杰西潘尼(JC Penney)公司解决方案架构师Pavan Kasumurthi表示:"作为美国领先的零售商,JC Penney的存储需求正日益增长,对存储的要求也日益提高。思科MDS存储导向器凭借出色的可扩展性和可靠性,有效地帮助我们进行存储网络管理。我们对于思科MDS 9700系列具备的高性能32Gb光纤通道能力非常满意,思科MDS 9700系列只需简单添加一个模块即可完成升级,这无疑保护了我们的初始投资。"
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。