Starr的好主意:让文件访问速度更进一步。

以手工方式拔出磁带卡盘
生产混合型闪存磁带卡盘的主意是由SpectraLogic公司CTO Matt Starr在昨天的一次谈话当中提出的。
他指出,LTFS已经在市场上变得越来越受欢迎,但被保存在磁带上的LTFS信息则无法被直接读取--我们需要首先将对应的LTO卡盘插入驱动器才能访问其中的数据。
这无疑需要耗费相当的时间,而且在磁带库当中,会由机器人负责将驱动器从架子上拿下再接入驱动器。即使这样,大家不妨想象一下,如果在磁带卡盘当中加入闪存芯片又会怎样。这意味着LTFS信息可以被保存在闪存当中,从而显著提升读取速度;而且通过这种方式,首文件的读取速度亦能大大改善。
在这套方案当中,闪存将以缓存的形式存在,其作用与在混合型闪存/磁盘驱动器当中一样,而且可以被用于存储/缓存磁带内容元数据。
照这样的思路考虑,那么驱动器需要负责为卡盘供电,同时将读取线缆接入其中,这样闪存芯片就能接受读取操作了。大家甚至可以想象在其中使用迷你USB之类的接口,从而同时实现供电与读取这两项要求。
这可能会成为未来LTO格式规范中的组成部分,例如接下来将要推出的LTO8。我们甚至能够设想甲骨文与IBM等老牌厂商将其纳入自己的专有磁带格式发展路线图。

磁带系统工程师们必须得告诉我们这样的设计方案为什么具有实际价值,而其具体回报又是否值得上由此带来的实现成本。
说到这里,我们想到了另一个更加奇幻的设计思路,即让磁带机器人在从插槽中拿取闪存/磁带驱动器时同时为其接入迷你USB类连线。这样一来,整套系统就能够在卡盘从插槽转移到驱动器内的过程当中即刻开始读取磁带中的元数据。通过这种方式,也许整个延迟时长还能再缩短几毫秒。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。