希捷科技近日参加了2021开放数据中心(ODCC)峰会,与业界伙伴一同聚焦技术创新,探讨面向未来的数据架构。
希捷科技中国区产品线管理总监刘嘉发表了以“超大规模数据架构演进方向及系统抗振性最佳实践”为主题的演讲,解析了超大规模数据的主流趋势,并分享了优化服务器振动设计的最佳实践操作。
希捷科技中国区产品线管理总监刘嘉接受至顶网采访,分享了超大规模数据中心给大容量磁盘带来的机遇和挑战,以及希捷在降低碳排放的相关举措。
由于各公司不断采用云(公共和私有) 来满足数据处理的需要,云数据中心正成为新的企业数据存储库。IDC预测,到2025年,49%的全球已存储数据将驻留在公共云环境中。云将成为新的核心,超大规模数据中心随着云而来,同时IDC预测,80%的数据还将使用HDD介质。
超大规模数据架构的优势,第一是支持大规模的扩展,第二是能够以相对比较低的成本去计算和存储,比如偏热的数据和偏冷的数据放在不同的介质里面,最终实现比较低的TCO。
当然现在大规模数据架构的数据量很大,需要用更大容量的硬盘,只要用到最大容量的硬盘,就会遇到抗振性这样一个典型问题。
“随着硬盘的磁道越来越密集,外部的振动对其也会产生影响。外部振动一个是物理机械的传导,比如风扇转速越高,振动自然就更剧烈一些。另一个是声波噪声带来的振动的传导,风扇转速越高,噪音就大,声波在服务器里面传递,造成振动。从而要求硬盘抗振性的设计越来越高。”刘嘉分享到。“伴随新基建的落地,超大规模数据中心的建设持续推进。面向未来,大容量机械硬盘承载的存储将是超大规模数据中心的主流。与此同时,希捷携手合作伙伴优化服务器设计,提升系统抗振性,让硬盘的容量、效率和性能发挥到极致。”刘嘉表示。
在降低碳排放,希捷在五六年前,开始推出氦气硬盘的时候,就发现,相对于空气盘,氦气盘在功耗和容量上要好很多。“比如,4TB空气盘大约需要10瓦的电费,但我们2016年推出10TB氦气硬盘的时候,同样大小的硬盘,容量大了2.5倍,但电却省了。”从那时候开始,很多的超大规模数据的用户就意识到,采用这种大容量氦气硬盘可以帮助他们降低数据中心运维成本。今年希捷已经推出的20TB的氦气硬盘。
“除了氦气硬盘,希捷的多磁臂技术,在增加了容量密度和提升性能的同时,实现功耗的下降。另外,硬盘本身也有一些优化,能够帮助降低功耗,有点像大家开的汽车有S档,很费油但是很快,也有省油的E档,我们硬盘里也有E档模式。”刘嘉谈到。
最后除了本身硬盘层面,希捷还会有部件回收等举措来体现其碳中和策略。
最后刘嘉表示,“希捷携手ODCC生态伙伴,通过一系列创新技术,增强超大规模数据架构的性能和效率,与业界共筑绿色、高效、低碳的基础设施。”
在此次展会,希捷还全面展示了企业级数据存储方案,包括希捷HAMR(热辅助磁记录)和MACH.2(双磁臂)产品、希捷银河(Exos)、希捷雷霆(Nytro)系列企业级硬盘,以及希捷银河(Exos)高密存储系统等。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。