根据 Xinnor 发布的一份案例研究 [PDF],新加坡一所知名大学通过采用 Xinnor 的 xiRAID 存储技术,显著提升了其 AI 研究速度。
为支持持续性研究工作,这所未具名大学部署了包括 Nvidia 在内的多个 GPU 和计算系统。
该校的部署方案支持医疗保健和自然语言处理等领域的高级 AI 项目,并配备了 BeeGFS 客户端和服务器集群。BeeGFS 是一个为高性能计算开发的并行文件系统,包含分布式元数据架构,提供可扩展性和灵活性。
在存储需求方面,该大学要求具备快速数据访问能力、数据保护、易于部署和管理、成本优化,以及能够根据未来客户端增长和性能需求进行扩展的能力。
为满足这些要求,由 Xinnor 本地合作伙伴 On Demand System (ODS) 设计的存储方案通过两个 100Gb InfiniBand 端口,实现了 24.7Gbit/秒的顺序读取性能。
该基础设施包含两个服务器节点,每个节点配备 24 个 NVMe 驱动器,并由 xiRAID 提供保护和加速。这种配置不仅满足了所需吞吐量,还确保了数据保护和未来扩展的可能性。
软件驱动的 xiRAID 技术采用先进算法提供冗余和容错能力,即使在多个驱动器同时故障的情况下也能确保数据安全。针对未来的性能需求,该大学可以通过增加 InfiniBand 卡来提升性能。
Xinnor 首席营收官 Davide Villa 表示:"xiRAID 能够实现接近完美的资源利用率并最大化 NVMe 性能,这对学术研究来说是一个突破性进展。我们与 ODS 的合作展示了软件定义 RAID 如何满足 AI 和高性能计算工作负载的严格要求,同时优化成本并简化部署。"
On Demand System 创始人 Rakesh Sabharwal 补充道:"通过将 xiRAID 作为解决方案的核心,我们帮助该大学在研究和创新领域突破了界限。xiRAID 与 BeeGFS 的无缝集成为大学提供了可靠、高性能的存储基础,完全符合大学的发展愿景。"
好文章,需要你的鼓励
在2025年KubeCon/CloudNativeCon北美大会上,云原生开发社区正努力超越AI炒作,理性应对人工智能带来的风险与机遇。随着开发者和运营人员广泛使用AI工具构建AI驱动的应用功能,平台工程迎来复兴。CNCF推出Kubernetes AI认证合规程序,为AI工作负载在Kubernetes上的部署设定开放标准。会议展示了网络基础设施层优化、AI辅助开发安全性提升以及AI SRE改善可观测性工作流等创新成果。
香港大学研究团队提出LightReasoner框架,通过让小型"业余"模型与大型"专家"模型对比,识别关键推理步骤并转化为训练信号。该方法在数学推理任务上实现28.1%性能提升,同时将训练时间、样本需求和词元使用量分别减少90%、80%和99%,完全无需人工标注。研究颠覆了传统训练思路,证明通过模型间行为差异可以实现高效的自监督学习,为资源受限环境下的AI能力提升提供了新路径。
DeepL作为欧洲AI领域的代表企业,正将业务拓展至翻译之外,推出面向企业的AI代理DeepL Agent。CEO库蒂洛夫斯基认为,虽然在日常翻译场景面临更多竞争,但在关键业务级别的企业翻译需求中,DeepL凭借高精度、质量控制和合规性仍具优势。他对欧盟AI法案表示担忧,认为过度监管可能阻碍创新,使欧洲在全球AI竞争中落后。
马里兰大学研究团队开发了MONKEY适配器,一种无需额外训练的AI绘画控制技术。该方法通过"两步走"策略解决了个性化AI绘画中主体保真与背景控制难以兼得的问题:先让AI识别主体区域生成"透明胶片",再在第二次生成中让主体区域听从参考图片、背景区域听从文字描述。实验证明该方法在保持主体特征和响应文字要求两方面均表现出色,为AI绘画的精细化控制提供了新思路。