以 AI 为核心的新科技浪潮,正在推动新一轮的产业变革。各行各业都希望获得更高性价比的算力,满足 AI 应用下激增的计算资源需求,实现降本增效,驱动业务的创新和增长。
在这样的需求背景下,火山引擎全面升级了第三代云服务器。结合了火山引擎全栈自研、软硬一体的 DPU2.0 架构以及自研虚拟化全卸载技术,可实现算力零损耗,让升级后的第三代云服务器具备超强算力、超高网络及更强存储 I/O 性能。
第三代云服务器各项性能较上一代有大幅提升,重点升级发布了通用型实例 g3i、高主频实例 hfr3i,以及国内业界首创的弹性预约实例,为客户不同应用场景提供更优性价比的新选择。
通用场景算力全面升级,AI 降本新选择
随着 AI 技术的不断发展和应用场景的拓展,越来越多的大模型逐渐部署到企业的实际生产环境中,给企业带来了高昂的推理成本。企业对性能强大且性价比更高的算力需求日益猛增。
火山引擎第三代通用型实例 g3i,相较于上代实例整机算力最高提升122%,在高性能计算、数据库部署、Web 应用和音视频处理等业务场景下性能表现更加优异,尤其是针对 AI 推理领域实现了显著技术突破,每个内核均内置 AMX AI 加速功能,可胜任80亿参数的模型推理,并为用户提供即时且流畅的交互体验。
例如,文生图是生成式 AI 中的典型应用场景,在第三代通用型实例 g3i 上进行 SDXL-Turbo 文生图模型推理,可实现秒级生图;在对话式文本生成的场景中,g3i 实例上进行80亿参数量的大语言模型的推理,首包时延能控制在1秒内。
此外,与字节跳动国内各业务的潮汐资源并池,g3i 实例搭配 Spot 抢占式计费模式,推理成本相比 A10 GPU 实例最高可降低77%,进一步帮助企业降低成本。
单核算力提升25% ,轻松应对计算密集型场景
科学计算、工程计算领域的诸多业务场景,需要处理庞大的计算密集型任务,单核性能更高的高主频实例,可帮助企业降低成本,并提升设计、研发和生产的效率。
火山引擎新一代高主频实例 hfr3i 提供了高达 3.4GHz 的主频和 4.0GHz 的全核睿频,单核算力比上一代高主频实例提升了25%,得益于单核性能的强劲表现,hfr3i 实例在算力密集场景下,应用性能最高可提升30%,单 vCPU 算力性价比更是提高了15%,可满足电子设计自动化(EDA)、工业仿真、MMORPG 游戏、关系数据库部署等场景日益增长的性能需求。
例如,在 EDA 软件应用场景中,通过 hfr3i 实例提供的更高单核性能,能够在相同实例规格上运行更多的 EDA 作业,从而减少所需 vCPU 总数量,有效降低业务部署成本。同时,强劲的单核性能还能缩短整体设计任务的耗时,进一步提升芯片设计的全流程效率。
弹性场景性价比首选,成本优化27%
除了升级更高性能、更优性价比的第三代实例以外,如何通过规模化的优势给企业带来更普惠的算力资源也一直是火山引擎努力的方向。
依托于字节跳动内部大规模算力集群优势,火山引擎通过和字节跳动国内各业务潮汐资源进行并池、混部,以及应用内外硬件机型统一等技术手段,构建了充沛的弹性资源池,并重磅推出业界首创的“弹性预约实例”售卖模式。这是一种“免费提前预约、到点自动交付”的按量计费方式。该模式具有超高性价比,相比普通按量计费实例,成本优化27%以上。同时火山引擎公有云拥有百万级服务器、亿核 CPU 规模,在高并发的情况下,以澎湃算力应对客户多场景的需求。
弹性预约实例既具备按量计费的灵活性,又有接近包月计费的超高性价比,尤其适用于可预见、有计划的弹性资源使用场景,例如,游戏、在线教育、财务 SaaS、电商大促以及渲染等。
火山引擎服务了某全球领先的云设计软件平台和 SaaS 服务提供商,其渲染业务高峰具有显著的规律性与周期性。在采用火山引擎所提供的弹性预约实例后,通过接入海量资源和灵活低价的计费方式,既保障了该公司业务高峰期资源的充分供应,又在 CPU 性能持平的情况下,使该公司总体算力成本降低了38.6%。
火山引擎第三代云服务器现已全面售卖,以技术驱动的更优性价比普惠客户,持续为各行各业的海量云上应用场景提供更加稳定、可靠的算力支撑。
想了解更多以更优成本落地 AI 业务的方法与实践?
7月4日,火山引擎将携手英特尔,以《算力再升级:如何以更优成本实现 AI 业务落地?》为主题,对第三代通用实例 g3i、高主频实例 hfr3i 以及弹性预约实例的应用场景与实践进行深入解读。
欢迎报名,预约直播!
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。