vForum 2017今日正式在京拉开帷幕,在这次企业级IT的行业盛会上,来自VMware及合作伙伴的行业大咖同参会者分享企业数字化转型的战略思考,以及各行业解决方案的最佳成功实践。基础架构的转型升级、跨云管理以及业务变革等议题在此会议被热烈的探讨。
数字经济时代,云和大数据不仅将成为企业生产、运营和管理的基础设施,也在间接为消费者提供最终可供消费的产品与服务。在企业与最终用户的双重需求下,对云服务的需求已经从“无到有”,进入了精品化与品牌化阶段。并且随着云计算产业的成熟和用户对云计算需求的加深,云计算市场已经从公有云市场转向私有云和行业云市场,最终向混合云进发。
华云作为VMware在中国区最重要的合作伙伴,同与会嘉宾就企业数字转型最佳落地实践、数字化转型为传统企业焕发新生等话题进行了分享。华云执行副总裁马杜解读了华云与VMware合作一年来的合作成果。
vForum作见证:合作一年 硕果颇丰
一年前的vForum2016上,VMware与华云正式签署合作备忘录,以加速VMware vCloud Air Network计划在中国的落地实施。
一年后的vForum 2017上,华云在自有数据中心——深圳润迅前海云数据中心搭建了vCAN节点,成为国内目前唯一在自有IDC上线运营的vCAN服务提供商。
言必行,行必果。VMware用户现在可根据其业务需求将工作荷载和数据迁移到华云的公有云上,以降低企业IT成本,提高灵活性和效率,并推动其业务数字化转型。华云则可帮助VMware用户真正实现一步上云。
华云执行副总裁马杜表示,VMware作为全球虚拟化的领导者,其产品是成熟的标准产品,而中国市场更呼唤适合中国市场的云产品。华云作为一家植根于中国云计算领域的领军企业,通过与VMware团队的沟通和协作,目前已在华云自建数据中心搭建了vCAN节点。同时,华云深谙中国市场企业级用户的需求,目前,华云利用在私有云、混合云、大数据方面的技术优势,已经成功找到了业务的切入点,预计很快就可以让vCAN在中国市场开花结果。
由此,VMware服务提供商可提供混合云服务,从而帮助客户借助内部正在使用的 VMware产品和工具将其本地部署的数据中心快速无缝地拓展至云端。
华云执行副总裁马杜表示,通过vCAN,客户可以实现业务分层,满足弹性计算,快速反应,便捷部署。使用vCAN后,客户可以将脱敏业务和数据放在公有云上,而核心业务依然放在私有云上,实现对业务的快速响应。
言出必行:实力与协作打造“背后的力量”
言出必行的底气来源于华云的实力。华云是一家重研发、重基础设施建设的企业,集团公司遍布于全国主要城市,运营着全球逾20个云数据中心,网络覆盖电信、联通以及华云自有BGP网络。历经七年,华云垂直整合了医疗、教育、交通、公安、金融、政企、园区等十余个行业,深度满足了企业云化对安全、可靠、稳定、连续、高效的要求。
做云计算尤其需要合作和生态建设。华云除了构建自己的行业客户外,十分注重生态建设。在与VMware的合作中,华云执行副总裁马杜表示,华云与之建立了十分紧密的合作关系,下一步,华云将对架设在前海数据中心的vCAN节点进行运行反复调试,等技术稳定后快速复制到其他数据中心。在未来,华云的目标是成为VMware在中国最大的vCAN方面的合作伙伴 。
在成立的第一天起,华云就意识到合作的重要,并一直为打造华云云生态圈而努力。经过多年的努力,华云不但与VMware的合作开花结果,同时还与SevOne、Veeam、东软等合作伙伴有着良好的合作关系。“华云和他的朋友们”共同针对客户痛点进行分析、解读,并提出解决方案,成为中国企业业务转型强有力的背后的力量。
独行快,众行远。华云,不忘初心,砥砺前行。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。