人工智能技术飞速发展,在各行各业的应用日益广泛,随之而来的安全风险与挑战也引起了社会各界的广泛关注。为了推动人工智能安全技术的发展,构建更加安全、可靠的人工智能生态体系,5月9日在成都举办的“通信行业‘数据要素x’数据安全应用创新研讨会”上,中国联通牵头发布了《人工智能内生安全白皮书(2024)》(以下简称“白皮书”),该白皮书编写过程中得到国家计算机网络应急技术处理协调中心、中国软件评测中心、中国信通院等行业机构和华为、百度网讯等领先企业的大力支持,标志着我国在AI安全领域迈出了坚实的一步,对于引导和规范AI安全技术的发展具有重要意义。

白皮书以建立安全、可靠、可控的人工智能系统为目标,围绕人工智能内生安全,重点介绍了人工智能自身与应用安全风险,提出了人工智能内生安全体系,明确了人工智能内生安全要求和目标,归纳了监督与管理体系、技术体系的建设要点。在人工智能内生安全体系下,本白皮书从 AI 基础设施、数据、模型、应用服务以及监管等多个维度提供了解决方案和治理措施,并提出人工智能内生安全发展建议,推动我国人工智能技术健康发展。
《人工智能内生安全白皮书(2024)》的发布,不仅标志着中国联通在AI安全领域的深入研究成果和行业领导地位,也体现了中国在推动全球AI安全发展中的积极作用。白皮书的发布,将有助于提升公众对AI安全重要性的认识,促进行业内的交流与合作,共同推进AI内生安全技术的研究与应用,为人工智能的健康发展提供坚实的安全保障。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。