NetApp今天发布了一项全新的网络安全服务Spot Security,以推动公有云业务的年化收入在未来几年内突破10亿美元。
和其他数据中心厂商一样,随着越来越多的企业客户开始把工作负载转移至外部,NetApp也将自身的产品路线图重点更多地转移到公有云上。
Spot Security是一项专门保护公有云环境的网络安全服务,它可以映射出云环境的所有组件,识别出那些配置不安全且有可能被黑客利用发起攻击的资源,此外还可以检测出可能导致数据泄露的异常用户行为。
Spot Security最大的亮点之一,是它不仅可以发现、还可以优先处理那些潜在的网络安全问题。现在IT团队面临一个共同挑战,那就是他们的网络安全工具会生成大量警报,但导致数据泄露的可能性又很小。因此管理员把大量时间浪费在调查误报上,而不是去解决更紧迫的问题。NetApp称,Spot Security能够找出最严重的漏洞,从而会简化IT团队的工作。
Spot Security通过分析企业云环境的拓扑结构,来确定哪些问题是最紧迫的。它会绘制出易受攻击的资源如何与环境中其他组件相连接的,以评估潜在漏洞的影响,此外通过评估多种类型的操作数据(包括有关网络流量和用户活动的信息,以及云厂商应用编程接口的数据)来做出决策。
在公有云中,快速查找和修复网络安全问题是非常重要的,因为企业组织的部署经常发生变化,有时甚至一天发生多次,每次更改部署配置或者更新应用,都有可能将网络安全漏洞引入环境,因此必须在黑客发现这些漏洞之前就快速检测并进行修复。
云环境经常变化的原因之一,是企业软件团队越来越多地采用持续集成和持续交付或(CI/CD)工具,这种工具对以前需要大量手动操作更新应用的流程实现了自动化,让开发人员每隔几个小时就可以发布新的代码,而代码频繁更新就意味着漏洞有更多机会进入环境中。
运行在云环境中的应用并非唯一频繁更新的IT资产,有时候底层基础设施资源也会定期更改。
很多企业组织通过使用spot实例来降低运成本,这实际上会导致云提供商数据中心的容量过剩。spot实例的成本低于标准虚拟机,但有一个问题:如果需要,云提供商可以在短时间内回收多余的容量,这时候spot实例就会停止,这也是为什么企业云基础设施资源配置会经常发生变化的原因之一。
帮助企业利用spot实例是NetApp Spot业务部门的重点之一。NetApp于去年收购了该公司,并推出了Spot Security服务。除了新的网络安全服务之外,Spot还提供工具让企业可以更轻松地使用spot实例,并帮助他们运行软件容器集群。
NetApp高级副总裁、Spot总经理Amiram Shachar表示:“我们将利用NetApp的市场声誉,把Spot作为一个引领云原生应用的品牌。”
目前Spot已经成为NetApp增长战略中的一个核心组成部分,更专注于公有云领域。上个季度NetApp的公有云收入(包括Spot)同比增长了155%,达到7900万美元。NetApp公司首席执行官George Kurian曾在今年8月向投资者称,NetApp计划在2025财年之前将公有云产品的年化收入增加至10亿美元。
他表示,NetApp将提供“一流的有机创新和无机创新”来推进这项计划,这里的无机创新,指的是未来可能进行更多收入。去年一年NetApp收购了三家初创公司,今年6月又收购了基于Kubernetes的分析和机器学习专业公司Data Mechanics。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。