7月17日,由沪苏浙皖三省一市大数据联盟首次联合主办的2018长三角数据智能合作(上海)峰会召开。会上举行了上海大数据联合创新实验室授牌仪式,由国内领先中立云计算服务商UCloud作为主体单位进行申报的2018年度上海市大数据联合创新实验室试点——开放数据领域获得授牌。
来自工信部、上海市经信委和闵行区政府等部门的领导为大会作了开幕致辞和发言,一致表示要促进长三角的数据一体化发展。长三角是中国经济最活跃的区域,三省一市合起来的GDP在中国占有很大比重,区域内的制造业和金融业非常发达。要通过数据智能合作,依托云计算、大数据、物联网和人工智能技术,优化重点产业布局,建设世界级产业集群,三省一市将携手并进,把长三角地区打造成为全球数字经济发展高地。
随着大数据应用场景的不断拓展,数据应用价值也持续得到开发,上海市政府作为最早一批尝试对政务数据进行开放利用的地区已走在了全国前列。不过,如何在保证数据安全的条件下,进一步提升政府治理和民生服务中大数据运用的能力、推动政务数据与各行业数据融合发展,也成为阻碍政务数据更深入造福社会的首要问题。在此形势下,UCloud联合其他三家单位共同申报了开放数据领域的联合创新实验室。
UCloud为申报主体单位,复旦大学数字与移动治理实验室、中国联通上海分公司以及上海大数据应用创新中心为联合共建单位。开放数据领域联合创新实验室的主要目标是研制一套适用于政府和企业数据流通的产品技术,打造一个便于数据流通,同时又能保证数据安全的平台,形成一套适用于数据流通的标准规范。
复旦大学数字与移动治理实验室成立于2010年,致力于对政府治理在数字时代所面临的新机遇和新问题开展学术研究、创新实验与决策咨询。在开放数据领域联合创新实验室的分工上,将研究分析公共数据开放共享的管理规则,同时利用实验室内数据为全国各地政府提供数据治理的咨询和分析服务。
中国联通上海分公司于2017年3月成立大数据中心,将为实验室提供海量优质的脱敏数据资源,并在实验室框架内,将其数据推广到更多有利于政府管理和企业发展的领域。上海大数据应用创新中心成立于2016年,在上海市经信委的支持下,联合众多高校和企业,旨在打造一个跨单位的大数据创新实体和创新平台,积极推动政府、企业、大学、科研院所建立紧密的产学研合作关系,将发挥自身影响力,为实验室的应用提供支撑服务。
今后,UCloud将团结共建单位,一起将实验室运营好,为实验室提供安全屋产品技术平台和数据源,同时利用UCloud客户生态为实验室寻找应用落地场景。UCloud于2017年推出的安全屋产品是一套通过实现数据所有权和数据使用权分离,以确保数据流通过程安全可控的产品技术方案,构成包括数据流通平台、计算平台、安全机制,其愿景为打破数据垄断,让数据流通便捷安全,实现数据民主化。因此,安全屋的应用场景与开放数据领域联合创新实验室不谋而合。
本届峰会还启动了上海开放数据创新应用大赛(SODA),该项大赛是国内第一个大规模的政府数据开放创新大赛,今年扩大到沪苏浙皖三省一市共同举办。SODA大赛也是开放数据领域联合创新实验室现阶段最重要的应用场景落地,其中上海大数据应用创新中心是大赛的运营方,UCloud是技术提供方,结合公有云、安全屋自身安全机制,保障大赛环境的安全可控。
开放数据领域联合创新实验室将研制提高数据流通效率和确保数据安全的核心技术,在全球范围内形成跨境数据流通的示范,探索跨境数据流通的机制和模式,建设一个便于数据资源流通开放的平台,提高数据流通效率和安全性,助推数字经济新发展,把上海打造为数据开放流通领域的标杆性城市,全力支撑上海“五个中心”建设。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。