何为冷存储?我们应该先弄清什么是冷数据,冷数据是相对于热数据和暖数据而言的,热数据指的是需要经常调用的数据,比如说我们常见的搜索引擎中的数据;而相对应的,冷数据长时间处于静默状态,不被经常使用,例如我们收藏的照片。那么,冷存储就是将这些冷数据以低能耗大容量的方式存储起来。
冷存储逐渐变热。据统计,Facebook网站每天有来自用户的3.5亿张图片需要存储起来,这些图片将添加到facebook已有的2400亿张图片中。这些图片按照协议是不可以删除的,大部分的照片人们不会每天都访问观看。如果把它们一直储存在磁盘中,每天都要消耗巨量的电力。如何使存储这些冷数据 而不消耗大量的资源?冷存储领域正受到越来越多业内企业的关注。
目前,最为迫切需要破解冷数据存储难题的当属数据中心和云存储服务商。数据中心不止强调数据的运算能力,它仍有庞大的冷数据需要存储,比如说一些比较火热的社交网站。云存储服务商同样会遇到类似的问题,他们可能会选择磁带存储,磁带存储虽然低能耗,但是数据访问速度将是极慢的,只能针对于那些保存那些不经 常被访问的数据、以及数小时恢复时间可接受的用户。
此外,冷存储也使用于一些特定的行业,如需要长时间保存高清照片和影像资料的大数据医疗和法律保存领域。
所以,冷存储具有广阔的发展前景。一些硬盘厂商已经借助优势技术开始抢占冷存储市场份额。比如HGST的氦技术,将不经常存取的冷数据利用磁带、光盘或最 新的氦气密封式硬盘存储。而在处理器方面,英特尔已经开始重视这部分的市场,最近,英特尔新推出的C2000正是面向冷存储领域的一款处理器产品,主打低功耗,高性能,满足用户对于冷数据存储的低成本需求。而ARM在64位芯片还未推出之时,相比较英特尔貌似已经掉队,而冷存储注重的存储成本和低功耗的特 质,让ARM收获了一部分厂商和用户的青睐。
人们每天的生活学习都会产生巨量的数据,冷数据的容量将会越来越大;而发展势头正劲的大数据技术,其价值挖掘很大一部分来自于冷数据,冷数据存储在这个信息时代正愈显重要。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。