客户体验的持续提升对企业发展至关重要,客户关系管理(CRM)运用IT、网络等技术对企业的客户信息进行管理和分析,通过精准推荐实现市场营销、销售、服务等活动自动化,全面、准确、前瞻地洞察客户需求。利用CRM量化和流程化客户管理,已成为企业提升自身竞争力的关键手段。
以通信行业为例,随着数智化进程的加快,用户需求从基础通信升级为更加丰富的数字化体验。中国电信江苏分公司(以下简称:江苏电信)始终坚持以客户为中心,加快业务创新和服务转型,积极提升客户服务中心能力,其自主研发了CRM系统,基于全容器化的部署方式,为用户提供及时、高效的通信服务。
由于通信产业市场体量大、增长快,无论是对CRM系统的数据调用还是内部业务逻辑的运行计算都不断考验着底层平台的“抗压”能力,因此江苏电信CRM系统的底层基础设施也面临更多挑战:
● 高吞吐量:电信CRM系统包含用户信息、账单、套餐变更、付款等,每日需要处理各类详单数据1亿条以上。
● 高可用:通信是高度可靠的行业,因此CRM系统必须具备高可用性和容错性,以确保在硬件或软件故障的情况下仍能提供服务;
● 低时延:在通信行业时延对于实时数据处理至关重要。为保障客户体验流畅并提高整体运营效率,平台需要在毫秒内实现响应为避免出现卡顿等问题,造成客户满意度的降低;
● 高安全:CRM系统嵌入了企业核心业务,需处理大量客户的敏感数据,如数据遭到泄露,将严重损害企业业务。
鲲鹏平台天生的多核多并行能力,能够很好的满足江苏电信CRM系统对平台升级的要求,同时还提供完善的鲲鹏DevKit开发套件以及专业服务,能够快速完成应用的迁移、开发、编译和调优。
基于此,江苏电信与江苏鲲鹏·昇腾生态创新中心联合创新,基于鲲鹏平台共同打造江苏电信CRM系统,以高吞吐、高可用、低时延、高安全为关键驱动要素,为广大用户提供高质量的通信服务产品。

迁移:基于鲲鹏DevKit 1人天/应用快速迁移部署CRM系统
面对鲲鹏新的指令集架构硬件平台,技术人员需要由源码开始构建运行环境,该平台涉及17个业务中心,百万行代码,50余种业务镜像,手动编译速度慢、效率低,工作量以及技术难度大,通过鲲鹏DevKit代码迁移能力识别出多个待替换Jar包,原计划需要一周时间完成手动迁移,在工具帮助下,自动识别待迁移代码并给出代码修改建议,避免反复编译排错,平均1人天/应用就完成了业务系统的迁移,极大提高了迁移效率。
开发&调优:基于鲲鹏DevKit高效重构CRM系统,性能提升40%~50%
迁移完成后,江苏电信计划在鲲鹏平台上进行该系统新版本的开发迭代,进一步降低时延,提升平台运行效率。在开发过程中,技术人员将OpenJDK替换成毕昇JDK,为CRM系统的前端代码编译提供了更好的兼容性和稳定性。
此外,针对数据访问时延高问题,技术人员使用了鲲鹏DevKit性能分析能力对该平台进行了调优,以实现业务的快速响应。通过系统性能分析功能对系统软硬件配置进行在线分析,发现CPU利用率高,导致内存带宽性能偏低;通过Java性能分析功能对应用程序进行在线分析,识别到堆内存参数设置不当,GC日志输出未开启等问题,导致堆扩大或者缩小引起应用停顿问题。在工具的建议下,技术人员进行了原子操作代替互斥锁、针对读操作的优化消除了rwlock以及引入线程池等程序优化操作,消除了复杂查询下资源消耗过高等瓶颈,优化数据库查询,解决了服务响应耗时长的问题。
通过上述优化,CRM系统的查询客户信息模块性能显著提升:响应耗时从30毫秒降低至18毫秒;吞吐量TPS由80提升至120,大大提升了平台的可用性和稳定性,确保用户使用无忧。

【江苏电信CRM系统查询客户信息接口处理能力性能对比】
目前江苏电信CRM系统已覆盖套餐、宽带办理等主营业务场景。作为通信服务领域的引领者,江苏电信也在不断推动通信服务的创新,持续加大科技创新投入,与鲲鹏携手构筑算力新生态,赋能江苏数字经济高质量发展。
为了助力用户和伙伴更加便捷的进行应用开发,鲲鹏DevKit也持续优化体验,支持代码迁移插件“零”代码快速接入企业现有开发流水线(如:Jenkins,CodeArts等),用户可以及时在流水线中快速检查、修改不兼容代码,不改变原流程,更加便捷的发布鲲鹏版本。
好文章,需要你的鼓励
微软宣布未来四年将在阿联酋投资152亿美元,包括首次向该国运输最先进的英伟达GPU芯片。美国已授权微软向阿联酋出口英伟达芯片,使该国成为美国出口管制外交的试验场和地区AI影响力锚点。这笔投资包括2023年以来的73亿美元支出和2026-2029年的79亿美元计划投入,涵盖数据中心建设、人才培训和AI基础设施扩展,目标到2027年培训100万当地居民。
德国于利希超级计算中心研究团队通过两千多次实验发现了AI模型训练的神奇规律:无论模型大小和数据量如何变化,最优训练配置总是对应同一个特定数值——输出层算子范数约为128。这一"范数传递"现象为AI训练提供了可靠的理论指导,并揭示了具体的缩放法则,能够显著提高训练效率、降低成本。研究还发现分层学习率优化可带来6%性能提升,为AI训练的民主化做出重要贡献。
OpenAI与亚马逊云服务签署七年380亿美元协议,在微软Azure之外增加另一个超大规模云服务商来满足其不断增长的AI计算需求。该协议将让OpenAI立即获得AWS EC2 UltraServers访问权限,计算能力将在未来七年内扩展至数千万个CPU。AWS还将为OpenAI构建基于英伟达Blackwell芯片的定制基础设施。尽管签署了这一大额协议,OpenAI仍将继续依赖微软Azure作为其主要云计算合作伙伴。
帝国理工学院团队开发的MoME系统将稀疏专家混合机制与多粒度表示学习相结合,创造出能够动态调整处理精度的音视频语音识别框架。该系统如同智能变速箱,可根据资源情况在同一模型中灵活切换不同性能模式,在保持高准确性的同时大幅减少计算开销,特别适合移动设备等资源受限场景。