日前,Lenovo®于北卡罗莱纳州三角研究园宣布推出一款依托新一代SAP®应用的可扩展内存解决方案,为商业用户实时提供企业关键分析洞察。面向SAP HANA®的联想可扩展解决方案专为执行内存中计算而设计,可打破当前限制为运行SAP S/4HANA®的客户提供内存可扩展性,使客户从更深入的数据分析能力和更高的应用性能中受益,进而加速供应链规划,改进对财务规划和其它新一代应用的预测、模拟以及假设分析。同时,随着新的软件定义技术继续拓展SAP?应用在数据中心的应用范围,客户需要在进行扩展的同时降低总体拥有成本(TCO)。联想用于SAP HANA的全新解决方案对其现有的领先产品组合进行了扩展,可满足SAP S/4HANA的巨大内存应用要求,最高能够扩展到36TB,同时还支持全新经济模型,既可提供投资保护,又可帮助客户降低成本。
联想服务器与存储总经理Kamran Amini表示:"随着业务流程的自动化程度不断提高,客户互动开始采用移动业务应用等新渠道,企业做出关键业务决策需要实时处理的数据量正呈爆炸性增长。通过与SAP和ScaleMP等合作伙伴开展密切合作,联想开发了一个创新型企业解决方案,可帮助客户通过添加将'内存中'数据库容量提高四倍的服务器节点--而不是大规模升级到昂贵的大型SMP专有系统,成本高效地逐步扩展其SAP S/4HANA环境。"
通常,SAP S/4HANA客户会估计其企业的数据增长速率,以初始规模开始部署流程。依托客户可靠性¹和客户满意度2均排名首位的联想系统,联想的创新型解决方案采用可扩展的构建模块方法。面向SAP HANA的联想可扩展解决方案旨在支持更大规模的SAP S/4HANA工作负载,可为客户提供一定的灵活性,从使用单一系统起步,随着数据增长平稳扩展其基础架构。通过打破系统内存限制,客户无需添加其它处理器节点即可完成这个任务,与传统的16路大型SMP系统相比,这种方法可帮助降低总体TCO。云服务提供商和在本地部署基础架构的客户将从这种方法中受益,在数据和工作负载需求不断增长时通过新的成本高效的方法来改进客户服务。
与任何SAP应用部署一样,项目计划完整性和生产环境稳定性是成功的关键要素。为确保成功,联想提供了最佳实践服务来帮助加速部署,并为面向SAP HANA的联想可扩展解决方案提供持续维护、24x7监视和管理。这些服务旨在确保快速启动并运行SAP HANA,并持续满足客户的主要预期。
SAP SE SAP S/4HANA执行副总裁Wieland Schreiner博士表示:"我们预计,无论是使用本地还是SAP托管云解决方案,SAP S/4HANA客户都可以提高大型工作负载所需的简便性、可扩展性并降低TCO。利用在SAP自己的企业云中完成的测试,通过与联想合作,这个新型解决方案将帮助客户提高SAP S/4HANA的投资回报,创造新的商业价值。"
ScaleMP CEO Shai Fultheim指出:"ScaleMP已确定,系统内存容量是云端和企业数据中心应用的主要限制因素。我们当前和未来的产品将致力于打破这些限制,以实现扩展并提高效率。作为数据库创新领域的领先企业,联想是ScaleMP开发软件定义内存和计算产品的最佳合作伙伴。"
面向SAP HANA的联想可扩展解决方案将于2017年第四季度发布,是联想与其合作伙伴SAP和ScaleMP深度合作的另一成果,也是三家公司为其共同客户创造全新价值所做的长久承诺。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。