作者:Veeam产品战略高级总监Rick Vanover和中国区总经理张弘
中国医疗行业正面临数据保护的挑战。《2019年健康医疗行业网络安全观测报告》指出,健康医疗行业总体处于“较大风险”的安全风险级别。网络安全风险的集中表现,一是僵木蠕等问题严峻,勒索病毒威胁严重;二是数据泄露事件高发,应用服务存在隐患;三是网络篡改手法多变,隐式植入非法信息。
新冠肺炎疫情使我国医疗安全防控体系迎来了一次大考。为了缓解医疗系统面临的日益增长的压力,通过自动化、创新和寻找新方法来提供医疗保健比以往任何时候都更为紧迫。因此,对技术的依赖只会成倍增加。
随着我国数字医疗的不断发展,数据安全策略必须以相同的速度发展。这意味着需要拥有严密的数据保护措施,以抵御最常见的网络攻击形式之一——勒索病毒。
有关患者、医疗机构、大学临床试验和研发数据的收集可能是高度个人化或敏感的,并且具有很高的价值。这些数据对潜在的黑客很有吸引力,因为他们了解泄漏此类数据可能对个人或机构声誉造成的影响,因此他们认为获得赎金的机会更大。
采取主动而非被动的预防措施可能会杜绝这种勒索病毒事件的发生。医疗机构及其相关组织的IT团队从一开始就应考虑在培训、实施和补救措施的基础上制定牢不可破的数据保护策略。
了解风险
要想了解潜在风险,需要先确定威胁因素。远程桌面协议(RDP)或其它远程访问工具、网络钓鱼和软件更新是三种主要的入侵机制。了解这一点可以帮助您的机构专注于战略投资,从攻击媒介的角度最大程度地抵御勒索病毒。
大多数IT管理员都在日常工作中使用RDP,许多RDP服务器仍直接连入互联网。因此,超过一半的勒索病毒攻击使用RDP作为进入途径,那些不通过RDP访问的用户则可能成为网络钓鱼邮件的目标。如果您不确定是否收到网络钓鱼电子邮件,可以使用Gophish和KnowBe4这两种流行的工具来评估对组织的风险。您还必须牢记更新关键类别的IT资产,例如操作系统、应用程序、数据库和设备固件。同样,将这种全面的处理方法也扩展到数据中心,因为它们与就地保存的数据一样容易受到攻击。
实施
当涉及勒索病毒攻击时,其弹性取决于备份解决方案的实施方式、威胁的行为以及补救过程。作为勒索病毒弹性策略的重要组成部分,备份基础架构是至关重要的一步。
当涉及弹性抵御勒索病毒时,备份存储库是必不可少的存储资源,因此建议禁止组织内的人员访问。具有访问此数据权限的内部人员可能会导致潜在的泄漏,因此建议在可能的情况下,由第三方管理这些权限。
补救
尽管您的机构接受了勒索病毒威胁的相关培训,并相应地实施了正确的技术,但您应始终做好在必要时采取补救措施的准备。
如果您确实遭受勒索病毒攻击,则下一步补救措施是:
在遭受攻击后,最难恢复的一部分就是决策权限。您需要确保组织有一个清晰的草案,可以确定在灾难情况下谁将负责处理数据恢复或数据故障转移。在这些业务讨论中,应该协商创建一份涵盖安全部门、事件响应和身份管理的联系人通讯录,以便您可以在需要时联系他们。黑客事件发生时,时间至关重要,到时您会感谢自己的未雨绸缪。
就像您为房屋购买保险一样,您应该考虑以同样的方式为数据备份进行投资。您希望永远用不上它,但是如果发生最坏的情况,它可以保护您的机构,并确保员工和学生的数据安全。通过对同事进行适当的风险培训,实施适当的基础架构以及合适的补救方案,您不仅可以提高抵御勒索病毒攻击的弹性,而且还可以避免数据丢失、财务损失或学校声誉受损。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。