博科近期宣布通过为EMC Connectrix系列网络交换机添加Brocade VCS以太网矩阵解决方案而扩大与EMC公司的长期OEM合作关系,这是业内第一个针对IP存储的网络交换机。即日起发售的Connectrix VDX-6740B IP存储交换机为EMC存储、云、重复数据删除,以及备份与恢复系统奠定了弹性、敏捷、易于部署的基础。
博科数据中心交换、路由与分析产品高级副总裁Jason Nolet表示:“传统IP网络在设计上并没有考虑到云、移动、社交和大数据等当今的新 IP应用。通过与EMC扩大合作,客户现在能够实现专用IP存储网络改进的性能、弹性和敏捷性,从而满足日益重要的IP 存储应用的需求。
EMC客户将部署新交换机,把IP存储流量与其它数据流量区分开来,与存储流量和其它网络流量共享同一个网络基础架构的传统部署相比,这种方法更可靠、更高效。
EMC公司核心技术部门营销副总裁Jonathan Siegal表示:“当今的IP存储负载能够得益于专用IP存储网络,其性能、可预测性、可用性和运营简洁性与我们过去15年来为光纤通道客户提供的不相上下。”
企业需要更加灵活开放的网络架构,以帮助实现IDC第三平台计算模式的承诺。IDC存储系统与软件研究总监Ashish Nadkarni表示:“IP存储容量几乎每两年翻一番,并过渡到性能更高、更关键的应用。要想满足这些新要求,企业应考虑对IP存储使用专用网络,这样才能更好地使其网络基础架构契合业务需求。”
EMC Connectrix现在可支持针对IP存储而优化的矩阵
Connectrix VDX-6740B是一个高性能、低延迟的IP存储交换机,为各种EMC的中高端NAS和iSCSI存储平台提供连接。通过零接触、自建矩阵,这款新交换机重新定义了敏捷性,并具有卓越的自动化和简洁性。
Oyster River合作学校IT总监Joshua Olstad表示:“VDX 6740将使我们能够更好地保障VNX环境的应用性能和可用性。网络基础架构将得以迅速部署,在管理上也比我们的传统网络更加轻松。能够在服务器之间实时迁移虚拟机,以实现负载均衡。
Connectrix VDX解决方案与Connectrix Manager融合网络版(CMCNE)相集成,为IP和光纤通道存储网络提供了统一的管理、监测和诊断。与EMC存储分析软件的集成可提供可行的性能分析,并让客户能够迅速识别并修复性能和容量问题。
更多Connectrix VDX-6740B细节
• 针对高端和中端NAS和iSCSI存储平台的连接,这些平台包括EMC的VMAX3、VNX、Isilon和XtremIO。
• 针对EMC VSPEX Proven Infrastructure云和EMC VSPEX BLUE超融合设备,以及EMC Data Domain重复数据删除和Avamar备份与恢复系统的存储矩阵连接。
• 获得专利的负载均衡、多路径,可实现最佳性能和最高效率。
• 深度的芯片缓冲可提供超过任何同类交换机2倍以上的吞吐量。
• 支持毫秒链路恢复的存储级弹性,能够在出现路径或链路故障后让I/O继续无中断运行。
• 通过EMC的E-Lab计划,与EMC存储、云、重复数据删除、备份和恢复系统进行端到端互操作性测试。
• 三年硬件保修,可选择高级和增强支持。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。