导读:分布式存储具有高扩展与可持续演进的特性,在超融合、Openstack私有云、大数据与AI领域中得到了广泛的关注和应用。然而,与基于传统RAID技术的磁盘阵列相比,分布式存储不仅在稳定性与性能方面有差距,甚至可能成为数据安全的隐患,如同IT基础架构中的“危楼”。
序言:如果看见一群人住在危楼里,但却对危险毫无所知,您会不会着急地大声呐喊,希望人们尽快远离危楼?而在分布式存储领域,目前最流行的以Ceph为代表的三副本方案,就是存储领域的“危楼”。
为什么?
著名的CAP原理是分布式系统最基本、最重要的理论之一,最初由加州柏克莱计算机科学家布鲁尔教授在2000年提出猜想,两年后由麻省理工的吉尔伯特和林奇教授证明。CAP原理的核心是:当分布式系统出现网络问题(Network Partition),人们只能在数据的一致性(Consistency)与可用性(Availability)二选一。
这意味着什么?
这意味着,在三副本系统中,当网络出现故障时,如果仍试图维持业务在线,即选择Availability(可用性),无论软件设计多么巧妙,运维团队多么优秀,仍然无法保证数据副本之间的一致性,最终可能只有一个副本保持了最新数据,即三副本在网络不稳定的情况下,将不可避免地降级为两副本甚至单副本,成为无形中的“危楼”:一旦出现系统掉电或一个或多个硬盘损坏,很可能造成严重的数据丢失现象。
如何消除分布式存储的危楼? 如何解决三副本的对数据安全带来的潜在威胁?
南京道熵推出的双重RAID架构是彻底清消除上述“危楼”的有效方法。双重RAID采用节点内RAID数据保护技术与跨节点的网络RAID技术相结合,将网络副本或EC码建立在节点内RAID基础之上,即使在出现网络故障的情形下,依靠每个节点内独立的RAID数据保护,仍然可以保证数据无忧,有效解决分布式系统中因网络故障而带来的安全隐患。
总结:
根据CAP定理,单纯的网络RAID,如三副本,无法彻底解决分布式系统中的数据一致性问题,无形中导致IT基础架构领域的“危楼”。双重RAID架构,将成为分布式存储最可靠的选择。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。