数据管理供应商 Veeam 承认了一个令人尴尬的失误:在执行恢复操作时出错并删除了数据。
好消息是这并非关键性错误,也不是由公司产品本身的问题导致的。
这个错误于 2 月 11 日在公司论坛的一个帖子中被披露,一位产品管理人员报告说"我们注意到过去 24 小时内的一些主题和评论目前已丢失。"
与其他供应商论坛类似,Veeam 的论坛混合了员工和客户的评论,提供产品支持和公司新闻。因此可能有一些有用的支持信息或产品路线图可能已经丢失。
发布这一消息的 Veeam 代表补充道:"我们理解及时更新的重要性,并向您保证我们正在积极调查这一问题。"
经过调查,他们发现了以下根本原因:
在今天早上的论坛维护时段内,内部基础设施 DevOps 团队错误地将一天前 (2 月 10 日星期一) 的论坛数据库备份恢复到了生产数据库上,而生产数据库本身并未出现任何问题,也不需要恢复。
由于恢复时间点之后发生了重大变更 (新主题和评论),我们无法将昨天和今天早上的主题和评论整合到当前版本中。
真是个意外。
"我们真诚地为造成的任何不便道歉,并感谢您的理解,"这位 Veeam 员工写道。
这看起来就是那种 IT 部门常见的人为失误,虽然不应该发生,但确实时有发生。The Register 对此表示同情 (看到我们的用意了吗?)。
我们是通过 Veeam 的每周论坛摘要得知这一错误的,该摘要将其列为"本周最佳帖子"。我们订阅该摘要是因为公司会在其中发布新闻,比如其计划支持 VMware 替代品 Proxmox 和 XCP-Ng。
多年来,论坛和电子邮件一直都是很好的阅读材料,因为 Veeam 的产品管理高级副总裁会在其中评论公司活动和更广泛的数据管理行业动态。遗憾的是,Gostev 在 2022 年停止了他的文章撰写,因为作为乌克兰人,在俄罗斯非法入侵其祖国的情况下,他觉得无法继续他的文章。(R)
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。