在金融市场中,风险通常与收益并存。上海大智慧股份有限公司(以下简称大智慧)致力于为广大投资者提供及时、专业的金融数据和数据分析,帮助用户在金融市场的风云变幻中出奇制胜。华为云GaussDB(for Redis)提供的冷热分离,弹性伸缩,稳定可靠等系列能力不仅成功为大智慧降低80%的存储成本,也为广大投资者提供了稳定高效的数据服务,帮助用户在投资中更从容。

华为云GaussDB(for Redis)为大智慧降低存储成本80%
大智慧是中国深具影响力的证券投资服务品牌,官方旗下软件有大智慧365、财富版、专业版、港股通、期货投资终端、大数据终端、策略投资终端和大智慧电脑版/手机版股票软件。大智慧致力于以软件终端为载体,以互联网为平台,向投资者提供及时、专业的金融数据和数据分析。
大智慧有两项重要业务:企业图谱和大智慧APP预警通。
• 企业图谱:全面整合沪深上市公司信息,通过动态图谱的方式为金融机构资产管理、信贷业务、投行业务等提供全面的企业背景资料,展示企业多层关联关系网,帮助客户识别企业之间的联系,防范企业系统性风险。
• 大智慧APP预警通:为数千万的大智慧用户提供消息推送和历史消息缓存服务,用户可以第一时间获取金融资讯与热点文章,同时还能够便捷地查看过往消息。
起初,大智慧的两项重点业务均依赖于开源Redis。随着时间的推移,开源Redis的弊端逐渐暴露出来。
其中,企业图谱业务使用开源Redis集群对热数据进行存储,业务上线之后,由于数据量逐渐增大,需要不断增加集群节点数,导致诸多问题,包括:
• 开源Redis内存成本高昂
• 冷热数据交互逻辑复杂,一致性不易维护
• 扩容带来的运维不便和业务卡顿
此外,大智慧预警通使用Redis集群缓存消息内容,如一些资讯、文章等,业务数据量从一开始预估的128GB、256GB,到后来不得不加快核心数据的淘汰,数据增长依然势头不减,业务面临如下问题:
• 存储空间紧张,存储价格昂贵
• 交易日的消息并发压力大
面对以上挑战,大智慧将目光投向了华为云云原生企业级数据库GaussDB(for Redis)。
华为云GaussDB(for Redis),对症下药
华为云GaussDB(for Redis)是降本增效的杀手锏,满足大智慧对大容量、强一致、高可靠、易运维的Redis数据库的诉求。
• 冷热分离:低频访问的数据自动降冷,持久化到高性能共享存储池,不占用宝贵的内存资源,与开源Redis相比,大大降低了硬件成本;同时上层业务不必自行设计冷热数据交换,不用考虑数据双写一致性等问题,即可轻松使用。
• 弹性伸缩:一键秒级无损扩容,交易日业务高峰期也可实时扩容,对业务零影响。
• 稳定可靠:亚毫秒级时延稳定无抖,轻松应对消息并发高峰;同时提供三副本强一致存储保障,从原理上避免脏读,有效协助客户简化上层业务逻辑架构。
全新底座,降本增效
切换到华为云GaussDB(for Redis)之后,大智慧的业务体验有了明显的优化:
• 企业图谱一库搞定业务诉求,存储难题得以解决,数据实现冷热分离,业务设计更加简单,开发效率更高,运行更加稳定。
• 大智慧预警通业务获得了大容量的存储,消息的并发量与及时性得到满足。
• 在交易日流量高峰,p99时延<2ms,保障终端用户丝滑体验。
• 后端存储的数据可以随时扩容,并且成本降低80%。
华为云GaussDB(for Redis)在运行稳定的基础上,大幅降低了存储成本,帮助大智慧在业务上进一步大展身手,更及时地为用户提供优质的服务。
【活动推荐】数据库迁移上云特惠:新用户购买华为云GaussDB(for Redis) 1年3折起,多款热销产品1年享6折,活动详情请登录华为云官网,搜索“云数据库专场”。https://activity.huaweicloud.com/dbs_Promotion/index.html
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。