如今,大模型已正式进入商业化落地元年,头部科技公司们正在纷纷加快大模型在各行各业的落地应用布局,然而随着模型参数越来越大、精度越来越高,与之对应的是算力成本的指数式增长,这对AI算力的供给及液冷技术的发展提出了更高的要求。针对这一行业痛点,宁畅给出了“全局智算”的解决方案,以全体系、全液冷、全服务、全场景、全行业、全阶段的战略,应对AI时代的复杂挑战,开拓算力产业发展新局面。
4月28日,来自新能源汽车、人工智能、互联网等多领域的多家企业走进桐乡,探访宁畅AI算力栈和原生全液冷工厂,通过体验宁畅全栈AI系统创新,为AI算力的更新迭代探索发展方向。
随着大模型走向商业化、产业化落地阶段,如何以系统性、全面性来应对用户需求的复杂性,提供更加精准的AI支撑能力,成为算力供给侧的重要课题。宁畅打造的全国首个AI算力栈——NEX AI Lab是配备了128台GPU服务器的智算算力集群,可为多领域用户带来应用场景优化、行业智算定制解决方案,通过免费提供软、硬件服务,带来大模型、数据科学、推荐系统等解决方案工作流的先进体验。目前,已有300+企业申请了算力栈的试用。
数据中心是大模型发展背后的重要保障,液冷服务器扮演了关键角色。宁畅基于在液冷技术和产业生态化上的深厚积累,实现了生产到交付环节的高效运行。不久前,宁畅发布了业内首个实现原生全液冷的通用机架服务器,在液冷技术上实现了重大突破,为液冷数据中心建设提速。
2024年,AI变革的序幕正缓缓拉开,更多的智能化应用将出现在工作与生活中。在时代的复杂挑战中,算力成为稀缺资源,宁畅以“全局智算”的战略以及在液冷技术上的不断突破,强化了算力供给侧改革,帮助企业培养数字化土壤。未来,宁畅将继续秉持创新的使命,为企业提供源源不断的AI支撑力。
好文章,需要你的鼓励
Blackwell GPU的生产制造工作量达到Hopper GPU的两倍有余,但带来的收入仅增加至约1.7倍。
由AMD驱动的El Capitan超级计算机(现位于美国劳伦斯利弗莫尔国家实验室(LLNL))成为世界上速度最快的超级计算机。