IT部门需要为企业用例制定云存储的采用策略,并决定在内部和外部使用什么数据。他们将获得新技术和工具的帮助,这些新技术和工具是跨现场和异地环境的最佳数据放置和管理软件。

以下是来自领先存储技术专家的预测,我们将在2017年及以后看到云存储。
Hitachi Data Systems公司的CTO Hu Yoshida:大部分存储将最终迁移到云端。这样做所带来的优势将被越来越多的人看到并接受。新的颠覆性公司大多数都在云端,如Airbnb和Uber。他们改变了商业模式。传统企业正在做出反应。每个人都专注于数字化转型。
我们在过去10年中看到的技术爆炸以及我们在IT方面获得的效率并没有转化为产品和服务交付方面的生产力提高。尽管我们拥有所有这些技术,但生产力已经下降。主要原因是我们没有以新的方式使用这些技术。一家银行向我展示了他们的新移动贷款应用程序,但它仍需要三个星期才能交付或批准贷款。这不再只是关于技术。它更多地涉及到如何改变业务流程,以及如何使人们更快地进行创新。
向云端转移的速度将会加快,购买模式也将发生变化。云提供了一种按需购买模型,与合同不同,我们将以结果为基础购买服务。除非你交付,否则你不会得到报酬。许可也将改变并转向订阅模式。
Hewlett Packard Enterprise数据中心基础设施组CTO Milan Shetti:数据中心里的混合IT模式将于17年开始被公众认可,人们将更深入地了解数据中心的内部,公共云的内部以及两者是如何一起工作的。每个客户,不管是小型或大型客户,将要经历混合IT的决策过程。公共云已经为客户提供了这种集中的基础设施,以部署他们所需要的任何应用程序和服务。但是由于闪存和持久内存,用户将意识到他们可以在数据中心实际获得公共云经济性,而不必来回移动数据,从而付出昂贵的代价。
IBM存储的副总裁兼CTO兼副总裁Vincent Hsu:软件定义存储(SDS)将能够在内部和外部运行,
从而以更低成本的方式创建新的数据中心。另一个重点将是使事情作为一个数据海洋而不是多个不同的孤岛。最后一件事是关注SDS的内部和外部,需要大量的手动操作,以管理数据的存放位置。你会看到认知技术的出现,可以帮助客户找出最佳数据和工作负载的存放位置。将工作负载移动到正确的位置是2017年一个新的混合云计划。
Nutanix高级工程副总裁Rajiv Mirani:我们将看到全栈的数据中心管理,并且有能力突破云端。今天的云集成很少。当在超融合基础设施上部署一些东西,“当设备达到容量时,我的应用程序的其他实例应该自动配置到公共云环境(如Amazon或Azure)中”并不是一件容易的事情。如今还没有人能真正实现。但是长远来看,能够为内部部署基础架构和云提供应用程序管理的供应商将是最成功的。
VMware存储和可用性业务部门CTO Christos Karamanolis:基于服务器的存储将首次为内部和公共云中的数据中心的主存储提供统一的操作模型。在VMware环境下下,它将是vSAN。在微软环境下下,我期望这是Storage Spaces。这样,客户能够使用相同的操作模式,无论他们的IT基础设施在哪。目前主要的公共云不提供存储,在功能上等同于存储区域网络。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。