以 AI 为核心的新科技浪潮,正在推动新一轮的产业变革。各行各业都希望获得更高性价比的算力,满足 AI 应用下激增的计算资源需求,实现降本增效,驱动业务的创新和增长。
在这样的需求背景下,火山引擎全面升级了第三代云服务器。结合了火山引擎全栈自研、软硬一体的 DPU2.0 架构以及自研虚拟化全卸载技术,可实现算力零损耗,让升级后的第三代云服务器具备超强算力、超高网络及更强存储 I/O 性能。
第三代云服务器各项性能较上一代有大幅提升,重点升级发布了通用型实例 g3i、高主频实例 hfr3i,以及国内业界首创的弹性预约实例,为客户不同应用场景提供更优性价比的新选择。
通用场景算力全面升级,AI 降本新选择
随着 AI 技术的不断发展和应用场景的拓展,越来越多的大模型逐渐部署到企业的实际生产环境中,给企业带来了高昂的推理成本。企业对性能强大且性价比更高的算力需求日益猛增。
火山引擎第三代通用型实例 g3i,相较于上代实例整机算力最高提升122%,在高性能计算、数据库部署、Web 应用和音视频处理等业务场景下性能表现更加优异,尤其是针对 AI 推理领域实现了显著技术突破,每个内核均内置 AMX AI 加速功能,可胜任80亿参数的模型推理,并为用户提供即时且流畅的交互体验。
例如,文生图是生成式 AI 中的典型应用场景,在第三代通用型实例 g3i 上进行 SDXL-Turbo 文生图模型推理,可实现秒级生图;在对话式文本生成的场景中,g3i 实例上进行80亿参数量的大语言模型的推理,首包时延能控制在1秒内。
此外,与字节跳动国内各业务的潮汐资源并池,g3i 实例搭配 Spot 抢占式计费模式,推理成本相比 A10 GPU 实例最高可降低77%,进一步帮助企业降低成本。
单核算力提升25% ,轻松应对计算密集型场景
科学计算、工程计算领域的诸多业务场景,需要处理庞大的计算密集型任务,单核性能更高的高主频实例,可帮助企业降低成本,并提升设计、研发和生产的效率。
火山引擎新一代高主频实例 hfr3i 提供了高达 3.4GHz 的主频和 4.0GHz 的全核睿频,单核算力比上一代高主频实例提升了25%,得益于单核性能的强劲表现,hfr3i 实例在算力密集场景下,应用性能最高可提升30%,单 vCPU 算力性价比更是提高了15%,可满足电子设计自动化(EDA)、工业仿真、MMORPG 游戏、关系数据库部署等场景日益增长的性能需求。
例如,在 EDA 软件应用场景中,通过 hfr3i 实例提供的更高单核性能,能够在相同实例规格上运行更多的 EDA 作业,从而减少所需 vCPU 总数量,有效降低业务部署成本。同时,强劲的单核性能还能缩短整体设计任务的耗时,进一步提升芯片设计的全流程效率。
弹性场景性价比首选,成本优化27%
除了升级更高性能、更优性价比的第三代实例以外,如何通过规模化的优势给企业带来更普惠的算力资源也一直是火山引擎努力的方向。
依托于字节跳动内部大规模算力集群优势,火山引擎通过和字节跳动国内各业务潮汐资源进行并池、混部,以及应用内外硬件机型统一等技术手段,构建了充沛的弹性资源池,并重磅推出业界首创的“弹性预约实例”售卖模式。这是一种“免费提前预约、到点自动交付”的按量计费方式。该模式具有超高性价比,相比普通按量计费实例,成本优化27%以上。同时火山引擎公有云拥有百万级服务器、亿核 CPU 规模,在高并发的情况下,以澎湃算力应对客户多场景的需求。
弹性预约实例既具备按量计费的灵活性,又有接近包月计费的超高性价比,尤其适用于可预见、有计划的弹性资源使用场景,例如,游戏、在线教育、财务 SaaS、电商大促以及渲染等。
火山引擎服务了某全球领先的云设计软件平台和 SaaS 服务提供商,其渲染业务高峰具有显著的规律性与周期性。在采用火山引擎所提供的弹性预约实例后,通过接入海量资源和灵活低价的计费方式,既保障了该公司业务高峰期资源的充分供应,又在 CPU 性能持平的情况下,使该公司总体算力成本降低了38.6%。
火山引擎第三代云服务器现已全面售卖,以技术驱动的更优性价比普惠客户,持续为各行各业的海量云上应用场景提供更加稳定、可靠的算力支撑。
想了解更多以更优成本落地 AI 业务的方法与实践?
7月4日,火山引擎将携手英特尔,以《算力再升级:如何以更优成本实现 AI 业务落地?》为主题,对第三代通用实例 g3i、高主频实例 hfr3i 以及弹性预约实例的应用场景与实践进行深入解读。
欢迎报名,预约直播!

好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。