6月20日,由深圳数据交易所主办的“数据资产化业界交流会暨深圳首笔数据资产质押融资案例活动”举办。在多方配合下,神州数码成功将金服云数据产品作为数据资产,纳入企业财务报表并获得授信融资,成为深圳数据资产质押融资的首个案例,不仅迈出自身数据资产化和数据价值化的重要一步,也为行业树立新标杆,未来有望赋能更多企业发掘数据资产潜能。
三方合作,推动数据要素市场化配置
活动上,神州数码与中国建设银行深圳分行、深圳数据交易所共同签署合作备忘录,三方将充分发挥各自优势,实现资源互补、互惠共赢,围绕数据资产入表、数据产品创新、数据资产流转等方面开展更广泛和更深入的合作,共同打造“数字金融”业务合作模式,助力数字市场化建设,促进地方经济高质量发展,加快构建全国统一大市场。
这也是此前神州数码及其成员企业高科数聚,与深圳数据交易所达成战略合作,以聚焦数据价值流通,扩大数据交易规模为核心,在数据交易平台产品化、数据商生态汇聚、市场拓展等领域展开深度合作以来,在数据资产化方面最新落地和实践验证。
通过此次与中国建设银行深圳分行、深圳数据交易所的合作,神州数码将结合深圳数据交易所的平台优势,以及建行深圳分行的金融服务能力,共同推动多源异构数据的融合创新,打造高质量的数据产品,服务于更广泛的行业需求,同时,也将通过产品创新、生态汇聚、市场拓展等多维度合作,共同推动数据交易平台的产品化升级,拓宽数据应用场景,提升数据产品的质量与价值。
神州数码财务总监陈平表示:“在过去几个月里,我们携手深圳数据交易所、建行深圳分行,成功促成了深圳市首例数据资产质押融资交易。神州数码金服云数据产品的入表、上市、融资,不仅标志着我们在数据资产化之路上迈出了关键一步,也是我们对于构建数据交易生态、丰富数据应用场景的积极探索。我们坚信,通过聚焦数据价值流通,扩大数据交易规模,能够有效推动数据要素的市场化配置,为数据交易和价值发现探索出一条可行之路。”
价值释放,打造数据资产入表范例
近年来,随着大数据、人工智能和物联网技术的迅猛发展,数据作为一种新型生产要素的地位日益显著,国家相继出台政策,鼓励数据要素市场化配置。今年年初,国家数据局等17部门联合发布的《“数据要素×”三年行动计划(2024—2026年)》提出,要鼓励企业拓展数据要素应用场景。同时《企业数据资源相关会计处理暂行规定》的正式实行,通过将数据资产纳入企业会计核算体系,也在一定程度上优化了企业的财务资产结构,使数据资产得以合法确认和计量。
神州数码积极响应政策号召,不断探索数据资产化的可行路径。此次数据资产入表融资,是神州数码在数据资产化领域迈出的坚实一步,也为更多企业实现数据资产入表及融资探索出新的路径,助力企业提升企业规模、优化决策、提高融资能力和信用评级,打造企业在数字时代的核心竞争力。
神州数码入表融资项目负责人高杨介绍,神州数码数据资产入表所构建的不仅仅是一个单一的成功案例,而是一整套可复制、可推广的数据资产入表融资解决方案。这套方案涵盖了数据产品从规划到落地的全过程,例如精准的数据产品规划,以市场需求为导向,确保产品设计贴合实际应用场景;严谨的数据治理机制,通过数据清洗与标准化流程,保障数据的准确性和合规性;创新的数据产品打造,利用先进算法挖掘数据深层价值,提升数据产品的市场竞争力;以及多元化的融资渠道开发,与金融机构深度合作,搭建顺畅的资金对接桥梁,解决企业融资痛点等,可以为后续企业场景下的数据资产入表提供有效路径和方法。
在“数云融合”整体战略的牵引下,神州数码认为构建企业自身的数据资产,加速释放数据要素的关键价值,是完成数字化转型的核心。
致力于成为领先的数字化转型合作伙伴,神州数码将继续致力于推动数据资产的创新应用,并助力更多企业打造数据资产化的最佳实践,加速推动数据要素赋能实体经济,共筑数据驱动型经济的新未来。
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。