3月18日,在2024年全国两会闭幕后,深圳市南山区前海自贸区迎来了博大数据深圳前海智算中心的开园仪式。这不仅是“人工智能+”行动的重要一环,也将成为粤港澳大湾区新质生产力的孕育摇篮。大咖齐聚鹏城,共谋合作共赢。
政企领导致辞,共谋深圳人工智能发展新篇章
深圳市南山区政府副区长蹇娜,深圳市工信局信息基础设施处副处长温标荣,深圳市南山区科创局副局长董少林,清华大学教授、博士生导师、深圳市人工智能学会副理事长李秀,中国南山集团副总经理赵建潮,金百泽科技董事长武守坤,京东云数据中心技术负责人王榕辉,博大数据CEO张永健,博大数据副总裁及前海项目负责人李亚等政企重要领导莅临本次活动。
在致辞发言中,深圳市南山区政府副区长蹇娜强调了人工智能在新质生产力发展中的核心作用,以及博大智算中心对于深圳市算力设施建设的重要支撑。清华大学教授、博士生导师,深圳市人工智能学会副理事长李秀从教育的角度讨论了人工智能如何提升工作、学习和科研的效率和质量,博大数据CEO张永健随后又从企业角度,分析了智算中心在AI+时代的关键作用,引发全场共鸣。博大数据副总裁及前海项目负责人李亚为大家揭秘了智算中心,究竟“智”在何处。
发言亮点
蹇娜:此次博大数据前海智算中心的开园,为南山区乃至深圳市的算力设施建设提供了重要支撑。前海智算中心将深度融入南山和前海的产业与经济发展中,与南山和前海同频共振,携手共荣。
李秀:AI+时代,博大数据深圳前海智算中心将以数据为中心,充分利用云计算、人工智能等前沿技术,为企业和社会提供更加智能、高效的服务,与合作伙伴共同携手,共同打造智慧产业生态,推动产业集群的智能化发展,助力智慧鹏城的建设,推动湾区数字经济的腾飞。
张永健:博大数据洞察前沿趋势,从最早的“领先的数字生态基础设施服务商”升级成为 “领先的算力融合基础设施服务商”,将以“基础设施+生态参与方+应用场景”的思路,引导技术、角色、应用场景全方位升级。
重磅开园+多个合作签约仪式,前海智算中心正式迈向新阶段
会上,博大数据深圳前海智算中心迎来隆重的开园仪式,博大数据的重要嘉宾、股东及高管团队共同登台剪彩。这标志着博大数据在智算行业开启了新篇章,将成为粤港澳大湾区培育新质生产力的“加速器”。
一朝开园,星耀前海,八方客户,云集而来。深之瞳、景安网络、天弛网络与博大数据前海智算中心正式签约。
战略伙伴,同心同行,和衷共济,开创未来。中建三局、鹏城时代、深信投、云天励飞、像衍科技、玄度时空云、青云成为前海智算中心的首批战略伙伴,商业模式和市场机会将在这里蓬勃涌现,智能算力将在更广泛领域走深向实。
智算中心“智”在何处?现场参观,近距离感受40,000P超大规模算力
博大数据深圳前海智算中心位于深圳市南山区前海自贸区,该项目基础设施投资20亿元,总面积超过5万平方米,整体规划容量约为15,000个标准机柜,并支持高功率深度定制,整体按照国家A级标准建设,一期可支持算力规模达40,000P,是深圳市在建规模、投入规模首屈一指的高等级智算中心。
前海智算中心聚焦“人工智能+”行动,不断培育新质生产力,充分发挥“智算”效能。前海智算中心的“智”主要体现在六个“高”,即高算力、高能效、高弹性、高管理、高可靠、高安全。不仅彰显了前海智算中心的技术优势,更映射出了博大数据强大的技术底蕴。
活动最后,博大数据高级副总裁陈亮引领来宾走进前海智算中心,深入了解智算中心的创新建设。近距离现场参观,体验科技魅力,与工作人员交流,奠定合作基础。
博大数据深圳前海智算中心的正式开园,为粤港澳大湾区这片创新热土带来新质生产力的源头活水。锚定高质量,勇闯深水区,浩渺行无极,扬帆但信风。更加澎湃的博大世界已近在眼前!
好文章,需要你的鼓励
Carma Technology 针对 Uber 提起专利侵权诉讼,称其侵犯了涉及拼车系统的五项专利。案情回溯至十年前,凸显专利保护对创新者的重要性,可能对 Uber 及其他公司带来巨大影响。
东京大学研究团队开发的WebChoreArena是一个全新的网页代理评估基准,它包含532个精心设计的任务,专注于测试AI代理处理繁琐、复杂网页任务的能力。研究结果显示,即使是最先进的语言模型(如Gemini 2.5 Pro)在这些挑战性任务上的表现也比常规任务降低了约14个百分点,证明了这一基准有效区分了不同模型的能力。WebChoreArena通过设计海量记忆、计算、长期记忆等类型的任务,为评估AI代理在实际应用场景中的表现提供了更严格的标准。
经过暂停战略调整,Automattic 宣布重返 WordPress 开发,包括核心、Gutenberg、Playground 等模块,计划今年推出 6.9 版本,并涉及与 WP Engine 的法律争端。
这项研究提出了一种名为LIFT的新型微调方法,通过在低秩近似后识别大语言模型中的主要权重进行稀疏微调。研究表明,仅更新5%的主要权重就能在推理任务上超越全参数微调,同时保持与LoRA相当的内存效率。LIFT在常识推理、算术推理等多项任务上表现优异,还能更好地平衡学习新知识与保留原有能力。这一方法揭示了大语言模型中关键参数的重要性,为资源高效的模型定制提供了新思路。