2024年伊始,OpenAI颠覆性大模型产品Sora横空出世,以强大的视频生成能力,进一步打开了AI应用想象空间,为大模型产业再次点燃一把“新火”!
从文字生成的ChatGPT,到文生视频交互的Sora,可以肯定的是,大模型正在快速从单模态向多模态演进,推动AI应用持续深化,不断释放巨大的价值潜力。未来,AI大模型参数已达到千亿级,原始数据更高达PB级,这不仅意味着算力需求将无限接近提升,同时也对数据传输与存储带来极大挑战。
全闪性能 满足AI大模型尖端存储需求
众所周知,在AI大模型的训练和推理过程中,数据质量和数量是AI应用“智能”的关键“养料”,这对存储系统的高吞吐、低延迟、高并发等特性带来极高要求,采用全闪存介质的高性能集群存储被普遍认为是AI大模型存储的最佳方案。
面对行业尖端存储需求,曙光存储重磅推出以ParaStor高性能AI数据基础设施为底座的AI大模型存储解决方案。基于全闪存储能力,可提供千亿级文件存储服务,接近无限扩展规模。
曙光存储首创的XDS技术嵌入Parabuffer加速引擎,在人工智能培训计算节点和存储系统之间构建大内存池,将系统的整体I/O性能提高数倍。存算协同优化显著降低了训练时间,可以从几十天减少到几天。
全栈自研 稳定保障全闪性能表现
除高性能外,AI大模型业务开发训练也需时刻保障稳定运行。目前,业内开源的全闪存储产品普遍稳定性较差,无法发挥出全闪存储的全部性能优势。
曙光AI大模型存储解决方案拥有全栈自研能力,支持基于部件级、节点级以及系统级和方案级四级安全可靠的机制,保证AI大模型开发过程当中全生命周期的稳定运行。
性价比之选 具备充分成本优势
在AI大模型开发之路上,成本问题也是行业从业者所面临的一大挑战。尤其伴随模型复杂度提升,数据处理、设备部署等成本需要重点考量。
为更好赋能行业发展,曙光AI大模型存储解决方案为客户提供了高性价比的存储方案,整体拥有成本更具优势。
目前,这套存储解决方案已广泛适用于互联网、金融、制造、通信、交通与医疗等关键行业的企业级AI应用开发之中,正在为多种模型开发提供专用、专业的创新升级存储服务!
好文章,需要你的鼓励
Multiverse Computing宣布完成2.15亿美元B轮融资,用于加速部署其量子计算启发的AI模型压缩技术。该技术可将大语言模型体积缩小95%而不影响性能表现,大幅降低AI推理成本。公司的CompatifAI技术采用量子启发算法和先进张量网络,能识别并剔除AI模型中的冗余部分。压缩后的模型运行速度提升4-12倍,推理成本降低50%-80%,可在云端、本地数据中心甚至边缘设备上运行。
UC伯克利研究团队发现了一种革命性方法,能够在不重新训练的情况下修复AI视觉系统的注意力异常问题。他们识别出少数"寄存器神经元"是造成注意力噪点的根源,并开发出"测试时寄存器"技术,将这些异常重定向到专门区域。该方法在多项视觉任务中表现出色,性能媲美专门训练的系统,同时还能抵御印刷攻击,为AI视觉技术的实际应用提供了简单高效的改进方案。
Databricks联合创始人兼CEO Ali Ghodsi在Data+AI Summit上宣布了多个新产品,如Agent Bricks和Lakebase,旨在简化企业AI应用开发、降低高成本及解决数据平台锁定问题。
北京大学团队提出ReLIFT方法,巧妙结合强化学习与监督学习优势。该方法让AI在常规训练中自主练习,遇到最难题目时自动获取高质量指导。实验显示ReLIFT在五个数学竞赛测试中平均提升5.2分,仅需传统方法13%的教学数据,生成答案长度减少近10倍,为AI突破能力边界提供新路径。