人工智能技术进步的步伐总是远远超过我们的想象。160年前,小说家、评论家Samuel Butler提出,未来某日机器也会有意识。如今,ChatGPT与同时代的其他AI应用一起,掀起了一场前所未有的人工智能狂潮。
不过,事情都具有两面性。人工智能是一把“双刃剑”,尤其是数据管理的“双刃剑”,在为数据管理带来巨大好处的同时,也可能带来重大隐患。今年7月,我国发布了《生成式人工智能服务管理暂行办法》,在统筹生成式人工智能健康发展同时也新增了有力措施来鼓励生成式AI技术发展。
谈及人工智能可能会带来的数据管理隐患,主要涉及以下方面:
一. 网络犯罪
像ChatGPT这样的智能聊天机器人及其背后的技术很可能将开创网络犯罪的黄金时代,它将网络犯罪的门槛降到技术含量最低。与此同时,掌握高级技术的网络犯罪分子又会利用这些人工智能工具制作出更具创新性的恶意软件和攻击载体。
二. 数据的数量、速度和多样性
这里需要先谈到关于数据的三个“V”,即:数量volume,企业正在创建的数据总量;速度velocity,企业创建数据的速度;种类variety,数据的格式数量。抛开其他因素看,人工智能实际上就是输入现有数据,对数据进行“思考”,然后以更快的速度和更多样化的格式输出更多的数据。
因此,人工智能也会加剧企业在管理内部部署和多云基础设施上的海量数据方面所面临的挑战,同时还涉及到安全问题和成本问题。全球的数据主要存储在以化石燃料为动力的数据中心中,其产生的碳排放量已和整个航空业不相上下。所以说,人工智能产生的大量不必要的数据也可能对环境产生重大影响。
三. 数据合规与治理
此外,ChatGPT等人工智能工具还带来了数据合规与治理方面的挑战。在企业和组织中,许多员工正求助于人工智能来简化工作。需要注意的是,虽然这可能会提高工作效率,但当员工们与聊天机器人共享企业的监管文件、收益报告或个人身份信息等机密信息时,会面临巨大的风险。人工智能甚至可能将这些信息作为机器学习过程的一部分,为自己向用户提供答案而收集相关依据。
一场共同角逐的“猫鼠游戏”
不过,企业在运用人工智能不断提高并完善自己的数据管理能力。由人工智能驱动的数据管理能够完成IT团队无法完成或没有时间完成的工作,从而解决人工智能的广泛应用所带来的诸多挑战。凭借AI技术,企业将能增强抵御网络风险的韧性,正可谓是黑客和企业之间的博弈。
具体来说,人工智能可通过以下几种方式提升数据管理解决方案能力,赋能企业抵御网络风险:
一. 动态网络韧性
在生成式人工智能工具出现前,数据威胁环境就已经在以惊人的速度不断演变。现在,它可能将加速变化到难以想象的危险程度。对于此类难题,解决之道可能是以其人之道还治其人之身,即采用人工智能驱动的异常检测和其他类似的安全措施,以作为全面数据管理战略的一部分,帮助企业抵御不断演变的威胁环境的影响。
二. 自我配置、自我优化和自我修复的数据服务
数据管理领域的领导者应继续开发能够自动进行自我配置、自我优化和自我修复的数据服务产品,包括先进的自动重复数据删除功能。随着生成式人工智能数据数量、数据速度和数据种类的增加,海量数据必然会指数型增长,上述的数据服务就有助于处理当今多云环境中的海量数据。这样前沿的数据服务在实际运用中,当部署新服务和用户时,会以自动提供数据保护策略的方式呈现,并自动监控和推出与观察到的公司数据使用情况相匹配的新策略。当然,这一切都不需要人工决策。
三. 标准化规定
人工智能已经在前沿的数据合规和治理解决方案中发挥作用,如在数量庞大的业务通信平台中提前检测到潜在的合规问题,并在阻止生成性人工智能工具泄露数据的过程中起到了重要作用。但首先,企业需要接受、倡导并实施监管限制,将潜在的敏感信息挡在这些人工智能工具外。在标准化规定出台前,企业领导者可以先加入在内部实施自己的监管条例的企业行列中,以防止员工使用生成式人工智能而产生数据合规问题。
一言以蔽之,正如硬币有两面,生成式人工智能工具在提供诸多便利和好处的同时,也伴随着独特的挑战。对于企业来说,如何在这种技术狂欢的浪潮下平衡发展与安全成为此次发展过程中的一道必答题。Veritas建议企业在人工智能自身发挥技术优势和适当监管限制的前提下,对其妥善使用,同时构建完备的数据管理架构并不断优化,以应对这些挑战。
关于 Veritas
Veritas Technologies是安全多云数据管理领域的领导者。超过八万家企业级客户, 包括95%的全球财富100强企业,均依靠Veritas确保其数据的保护、可恢复性和合规性。Veritas在规模化的可靠性方面享有盛誉,可为企业提供抵御勒索软件等网络攻击威胁所需的弹性。Veritas通过统一的平台,支持超过800种数据源,100多种操作系统以及1400多种存储设备。在云级技术的支持下,Veritas现正在实践其数据自治战略,在降低运营成本的同时,实现更大价值。
Veritas中国官方网站 https://www.veritas.com/zh/cn/
Veritas官方微信平台:VERITAS_CHINA(VERITAS中文社区)
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。