近期,华为在HUAWEI CONNECT 2017大会展示了计算服务的全系列产品,全面开启虚机到裸金属云时代,为全行业客户上云提供快速通道,企业用户与华为互利互赢协同发展,得到广泛关注。
业务全覆盖--六大类计算服务,提供从通用到极致的性能选择
1) 通用计算型--前期投入低,维护成本低
为部署企业官网、搭建企业办公环境、支撑企业开发测试活动,如Web服务器、开发测试环境以及小型数据库应用等提供安全可靠、灵活性高的计算服务。
2) 计算密集型--高性能计算的利器
为高性能计算业务要求提供海量并行计算资源和高性能的基础设施服务,达到高性能计算和海量存储的要求,保障渲染的效率。在生物工程、游戏动画、视频渲染和自建数据库等高 I/O 应用场景有广泛应用。
3) 存储密集型--海量数据云上处理
适合处理海量数据、高I/O能力、进行快速数据交换和处理的场景。如MapReduce和Hadoop计算、数据密集计算等。
4) 内存密集场景--大数据分析伴侣
主要针对广告精准营销、电商、车联网等大数据分析应用,如关系数据库、NoSQL 数据库、内存数据分析等对内存要求高,同时要求内存优化。
5) 计算加速型--异构计算先锋
主要为针对高清视频、图形渲染、科学计算、基因工程、生物制药的计算和存储系统等应用,提供海量并行计算资源、高性能的基础设施服务。
6) 裸金属主机--无双硬用上云来
适用于需要通过共享卷支持数据实时同步的核心数据库业务;适用于需快速部署计算集群的高性能计算业务,如科学计算、基因测序、图形渲染等,可达到分钟级部署一台裸金属主机;适用于对安全性要求高,需要物理独享计算、存储资源的金融证券等安全场景。
7) 灵活产品组合,支持200+应用场景
在六大类服务的8种实例之间能够灵活组合,形成不同的用户级解决方案,支持企业多达200+的应用场景。例如计算密集型+存储密集型能够支撑大数据分析等;通用计算型+计算加速型能够支撑深度学习训练、石油勘探等。
软硬完美结合--华为云计算服务提供软硬结合端到端解决方案
集成华为FusionServer服务器,大内存E1实例可提供高达940GiB的内存容量,非常适用于对关系数据库、NoSQL 数据库、内存数据分析等要求极高的应用。
集成华为ES3000 PCIe SSD卡,超高IO型I2实例可提供高达350万的IPOS;提供Infiniband EDR 100Gb带宽IO处理能力,时延小于2?s;提供Lustre并行文件系统,支持大于50GB/S的吞吐量。对于数据库、高性能计算、大数据等这类应用, I2实例能显著提升业务性能,帮助客户降低系统TCO。
集成华为Atlas硬件平台和NVIDIA P100,GPU科学计算型P1实例可提供高达74.4TFLOPS,适用于高精度、高性能的AI深度学习。而PI1实例适用于硬解码、低延时的AI深度推理,支持35路高清视频硬件编解码。
集成Intel最新Skylake V5 CPU,S2、C3、H3、M3实例性能最高可提升60%。
超强硬件基础平台--华为ATLAS新一代智能云硬件平台:资源池化、灵活编排
华为GPU/FPGA加速云服务提供灵活的实例配置,包括多种虚拟化实例,通过直通技术灵活选择配置1/2/4/8块GPU或FPGA,满足用户不同计算能力的需求。
任意两片加速卡之间通过光网络full-mesh互联,速率高达200Gbps,满足大量数据流传输,提供更低的时延。
异构加速实例单节点性能最优为专属裸机实例,可以直接获取单节点8块GPU或FPGA的全部性能,此外裸机没有虚拟化的损耗,实现了物理资源隔离,可满足一些用户的极致使用场景。
物理安全隔离--华为云BMS裸金属服务提供数据安全隔离、极致性能体验
华为云BMS裸金属服务提供性能更强大的多规格高端服务器。裸金属服务能够保证客户物理机的原生应用无需改造平滑上云,租户之间通过VPC网络隔离,物理机之间为100Gbps IB网络。
华为云BMS裸金属服务目前是业界唯一能够提供自动化挂载共享卷能力的云服务。客户可按需申请高达320T容量的云硬盘,共享卷能力可支持企业核心数据库系统的集群部署。
采用华为自研的智能网卡,通过Console进行配置,在5分钟内就可以获得所需的服务器能力,极大提高使用效率,是部署HPC云上超算的核武器。
华为云BMS裸金属服务结合DEC专属云服务,为用户开辟一块专属云空间,提供独享计算、存储资源,通过物理和VPC网络等实现高隔离性专属云方案,满足客户对敏感数据的保护,并能够做到可监管、可追溯,满足金融证券行业对数据安全监管需求。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。