“风云浙商”是浙江乃至全国最具影响力的财经人物评选活动之一,迄今已迈入第三个十年,被誉为“浙江经济奥斯卡,时代经济风向标”,今年的“风云浙商”评选活动共揭晓十位年度风云浙商,旨在表彰持续锐意进取,以拼搏创新的态度传承浙商精神,彰显浙商风采的企业家代表。
作为“风云浙商”,“创业者”是郑树生身上最鲜明的标签。他一手创立了三家公司,其中就包含在杭州市滨江区成立、专注于企业级存储赛道的宏杉科技。在成立的十余年里,宏杉科技与郑树生共同践行着“创业是修行,创新为求生”的理念,在企业级存储领域日益精进,成为国内存储产业的中坚力量。
创业是修行:找准方向,专注做下去
宏杉科技成立之前,全球存储市场由多家国际500强企业占领。同为IT三大数字基础设施,在网络、计算领域,国内厂商群英荟萃,相关技术也能达到国际前列,唯有存储,国内市场几乎处于空白的状态。尽管面临着投资大、门槛高的问题,郑树生带领的初始团队仍决定投身存储行业,“宏杉”之名意为参天大树,蕴含着推动国内存储产业发展壮大的初心。
十余年来,宏杉科技始终专注企业级存储领域,完成了从0到1、从1到N的产品创新——从2011年发布第一代大缓存中高端存储MS5500,到2015年以全闪存存储MS7000-AFT开启全闪存加速时代,再到形成SAN、NAS、分布式、备份、云及超融合等全系列存储产品线,宏杉科技栉风沐雨,一步一脚印,成长为全球少数具有高端存储研发能力的厂商之一。
凭借出色的产品与专业的解决方案,宏杉科技在各行业逐步实现突破,成长为国产存储领导品牌。目前,宏杉科技的数据存储产品与解决方案已广泛应用于金融、运营商、政府、交通、医疗、教育、电力能源、企业等各行各业,其中中国工商银行、中国银行、中国石化、国家电网、中国联通、中国国家铁路集团等大型企事业单位均已大批量使用宏杉科技高端及全闪存系列产品。
创新为求生:厚积薄发,构建竞争优势
郑树生曾言:创新一定要有新东西,要形成核心技术与优势。作为一家高端设备制造企业,“创新”被刻在宏杉科技的基因里。对于宏杉科技而言,创新并不是只喊口号或是闭门造车,而是切切实实地从用户的实际需求出发,为解决用户痛点而生。存储的作用是存储与管理海量数据,宏杉科技要做的就是以创新为用户构筑坚实的数字底座。
数字经济时代,数据价值愈发显现,如何高效存储与管理海量数据成为众多行业用户亟需解决的课题。宏杉科技深入洞察用户业务场景,推出了集中式高性能存储解决方案、海量大数据存储解决方案、数据保护和灾备解决方案等在内的多样化解决方案,确保用户获得高性能、高可靠、高度兼容的底层硬件、系统中间件和上层应用。立足核心存储技术自主可控的产业需求,宏杉科技致力推动存储技术的国产化进程,参与多项信创存储标准制定,率先发布基于国产ARM、国产x86架构的存储设备和全IP数据中心解决方案,全面适配国产软硬件环境,同时携手上下游生态合作伙伴加速填补国产化存储产业链空白。
诸多成果的取得离不开足够的投入。宏杉科技始终坚持自主创新,近年来每年的研发投入占销售收入的25%以上,研发人员占全体员工的50%以上,荣获“国家高新技术企业”“工信部专精特新小巨人”“浙江省科技小巨人““信创存储领军企业”等荣誉称号,并连续三年入围“浙江省企业创造力百强榜单”。
郑树生用“顺其自然”来概括他三十年来的职业生涯,而这风轻云淡的表述背后却是他一往无前的魄力,一以贯之的高要求以及一如既往坚持不懈的努力。站在新的发展阶段,郑树生给宏杉科技设定了更远大的新目标。面向未来,宏杉科技将持续激发创新动能,向着核心技术研发突破、产业链完整协同、生态布局完善等目标不断进化,拥抱更加广阔的产业蓝海,做更多用户数字化转型路上值得信赖的一站式数据存储专家!
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。