智能化狂潮席卷千行百业,算力需求的倍数增长带来尖锐的能效问题,高昂的电力账单和算力成本横亘在眼前。面对海量的算力需求,在性能、成本、绿色、运维等问题之间,如何寻求平衡之道?
宁畅给出答案!宁畅B8000液冷整机柜服务器实现集高密算力、轻松部署、绿色节能、快速交付、智能运维等众多优势于一体。至此,宁畅迈出“冷静计算”的关键一步,同时也用“至简、至强”的新一代服务器为用户提供了具有划时代意义的算力新选择。
至强算力,液冷整机柜挑战冷板极限
芯片功耗狂飙、机房热能暴涨、运维成本大增,面对算力升级之路上的种种难题,宁畅综合考虑了功耗、电源、主板等数十个因素,最终确定将液冷整机柜作为下一代高密度服务器的技术演进方向。结果表明,B8000节点内液冷覆盖率超过90%,PUE可低至1.09,在业内冷板液冷PUE 1.2的平均水平下,这一性能基本达到了冷板液冷的“极限”。
宁畅CTO赵雷表示,设计产品就像建房,是有限空间内的布局艺术。标准2U4节点服务器功耗约4Kw,现有技术架构下通常采用2+2的冗余电源,但会挤占主板和系统空间。业内友商会将电源前置或外置,而宁畅采用整机柜服务器集中供电的方式,有效化解技术架构和CPU平台演化带来的技术挑战,是差异化和性价比的最优解。
通过优化设计,B8000核心部件温度下降超过15度,设备散热效率提升50%,算力性能提升10%,单柜功率上限可达100kW,比传统风冷整机柜提高了3-4倍。
至简设计,三路全盲插方便部署
运维秉持“冷静计算”理念,宁畅的各项技术创新瞄准客户需求做到了有的放矢。传统液冷管路需要人力现场焊接,焊渣等会残留在管路内,非常“原始”。而整机柜在工厂就由机械完成了这项工作,实现“原始”到“文明”的进化。
B8000以整机柜形态交付,极大地简化了现场的部署和运维工作,尤其是电、液、网三路全盲插设计,部署周期对比传统方式提升30倍。同时,B8000具备高度解耦能力,其液冷节点可拆卸当作单台服务器部署到普通机柜,灵活满足各类客户需求。
为了更好实现盲插,宁畅对各项细节的悉心打磨成就了B8000“至简”的技术美学。例如,针对液冷快插模块,宁畅综合考虑了几十种漏液异常情况,对10多种技术设计方案进行了反复验证,直至完善出最佳方案,为用户带来了更加安全、便捷的使用体验。
赵雷表示,“服务器不应当仅停留在‘技术内卷’,看谁的PUE能更低,而是要通过技术的微创新,创造出更贴合用户需求的产品。”基于百万级客户的液冷部署经验,宁畅将更加理性洞察用户需求,不断推出面向未来的创新产品,为客户提供更智能均衡高效的“冷静计算”。
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里巴巴联合浙江大学开发的OmniThink框架让AI学会像人类一样慢思考写作。通过信息树和概念池的双重架构,系统能够动态检索信息、持续反思,突破了传统AI写作内容浅薄重复的局限。实验显示该方法在文章质量各维度均显著超越现有最强基线,知识密度提升明显,为长文本生成研究开辟了新方向。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
腾讯混元3D 2.0是一个革命性的3D生成系统,能够从单张图片生成高质量的带纹理3D模型。该系统包含形状生成模块Hunyuan3D-DiT和纹理合成模块Hunyuan3D-Paint,采用创新的重要性采样和多视角一致性技术,在多项评估指标上超越现有技术,并提供用户友好的制作平台。作为开源项目,它将大大降低3D内容创作门槛,推动3D技术的普及应用。