近日,第六届中国卓越管理公司(Best Managed Companies,以下简称“BMC”)项目榜单在会上正式发布,神州数码凭借领先的数字化管理实践成功入选。
BMC项目是德勤具有30年历史的全球项目,其网络已遍布世界近50个国家和地区。自2018年落地中国以来,BMC项目至今已连续举办六届,是当前中国唯一针对企业管理体系进行全面评估的国际奖项。本届BMC项目继续运用成熟的“BMC卓越管理标准”全球框架,从企业战略、能力、承诺以及财务实力四个领域进行综合评估,历经6个月闭门推荐、企业家访谈和专家调研,最终评选出66家企业进入中国BMC项目榜单。据悉,本届入选企业2023年合计营收约2.9万亿元,平均存续期28年,平均营收达437亿元,平均净利率为8.2%。
全面拥抱AI,神州数码“AI加速数云融合”
洞悉科技创新是发展新质生产力的关键因素,生成式AI正成为AGI时代各产业创新升级的核心驱动力。为此,本次活动将“人工智能”作为主要话题之一,探讨企业如何借助科技创新驱动自身及产业转型升级,实现高质量发展。
神州数码总裁、董事会秘书陈振坤在活动中谈道:神州数码认为,数据作为生产要素重新编排的过程,就是企业创新的过程。生成式AI技术的应用,使得企业的数据呈现指数级的增长,进而生成新的生产要素,而这些生产要素的重新编排又会催生出新的产品和服务。这是我们认为AI会极大促进甚至颠覆面向企业的数字化转型服务的原因。这是生产力的极大改善甚至业务模式的颠覆。神州数码已经全面拥抱AI,构建从底层算力基础设施到上层面向行业场景应用的全栈产品、解决方案、服务能力,并与所有生态伙伴一起,共同推动AI的应用和生态发展。
三个锚点,打造以客户为中心的AI着陆加速引擎
致力于成为领先的数字化转型合作伙伴,神州数码自成立以来,始终秉承“数字中国”的初心和使命,不断推动企业自身数字化转型,打造数字化最佳实践,以数字技术和服务赋能各行各业,现已成为推动社会数字化进程和数字经济发展的重要力量。
AGI时代,神州数码正围绕AI原生场景赋能、多云异构绿色智算、国际化AI生态创新三个锚点,着力打造以客户为中心的AI着陆加速引擎。
在AI原生场景赋能方面,为有效满足专业领域企业对生成式AI技术的需求,神州数码推出AI原生赋能平台——神州问学,希望通过Agent工程、企业知识治理、模型训练与管理三个功能模块的相互协同,帮助企业“一站式”解决AI落地的系列痛点,降低AI应用的开发门槛及落地成本,加速生成式AI在企业场景中的应用创新。目前,神州问学在中医药、零售等领域已建立起标杆案例。
在多云异构绿色智算方面,面对AI加速落地带来的算力需求暴涨,以及智算资源利用率低等痛点,神州数码推出多云异构环境下智算中心整体绿色方案,包括依托硅光+液冷技术、一体化交付的神州鲲泰全液冷整机柜,以及可以屏蔽底层算力差异、大幅提升算力利用率和可用性的异构智算调度运营平台HISO、异构智算加速平台HICA两大平台产品,以助力企业构建性能更优、成本更低、能效更高、能耗更低的智算基础设施底座。目前,神州数码在沈阳、厦门、深圳等地已深度参与和打造多个人工智能计算中心,服务区域智算需求。
在国际化AI生态创新方面,神州数码于今年5月与德勤中国共同启动DC·AI生态创新中心,希望携手全球领先的AI伙伴,汇聚AI解决方案、人才、市场三股生态力量,在深圳打造推动AI着陆的创新空间。
基于在云计算及数字化服务、自主品牌硬件两块战略业务的深耕,以及AI领域的多点布局和成果,神州数码上周披露的2024半年度业绩预告表现相当亮眼。2024年上半年,神州数码营业收入预计为612亿元至639亿元,同比增长10%至15%;扣除非经常性损益后的净利润约为4.5亿元至4.7亿元,同比增长5%至10%。其中,神州数码战略业务收入保持50%以上的增长,盈利能力和核心竞争力持续增强。
未来,神州数码将继续发挥自身优势,不断探索创新,积极推动AI技术在各产业的落地应用,为数字经济的发展贡献更多力量。
好文章,需要你的鼓励
本文探讨了一种防范通用人工智能(AGI)和人工超级智能(ASI)存在性风险的方法:将它们置于计算机仿真世界中进行测试。虽然这种方法看似合理,但存在诸多挑战。AGI可能会隐藏恶意行为,或因被欺骗而转向恶意。此外,仿真环境可能无法完全模拟真实世界,导致测试结果不准确。构建高质量仿真系统的成本和技术难度也不容忽视。文章认为,仿真测试虽有价值,但并非万能解决方案。
这项研究关注语音中的句子强调(即说话时对特定词的重音),它能传达说话者的潜在意图。耶路撒冷希伯来大学的研究团队发现,尽管现代语音语言模型进步显著,它们在理解句子强调方面表现不佳。团队创建了StressTest基准测试和Stress-17k合成数据集,并开发了StresSLM模型,使强调理解能力大幅提升。研究表明,通过特定训练策略,可以让AI不仅理解"说了什么",还能理解"怎么说的",从而捕捉人类交流中的微妙含义。
尽管AI在围棋等复杂游戏中表现出色,但在简单的井字棋游戏中却屡屡失败。研究显示,AI代理在模拟商业环境中的表现同样令人失望,经常出现幻觉、欺骗和任务未完成等问题。游戏测试为评估AI能力提供了直观方式,帮助普通用户理解AI的真实水平。面对当前AI行业的过度宣传,通过游戏化测试揭示AI的实际局限性,对于防范AI泡沫具有重要意义。
ViStoryBench是一个全面的故事可视化评估基准,由StepFun团队打造,用于测试AI将文字故事转化为连贯图像序列的能力。它包含80个多样化故事和344个角色参考,评估包括角色一致性、提示遵循度等多个维度。研究测试了20多种方法,发现UNO在开源方法中表现最佳,而商业软件如豆包和GPT-4o在提示一致性方面表现突出。该基准为故事可视化研究提供了统一标准,推动这一领域的创新发展。