北京 – 2023年3月29日 – 近日,多云数据管理领域的领导者Veritas Technologies发布最新的《消费者对企业数据可持续性看法报告》表明,超过三分之二的中国消费者(68.3%)认为,当不再需要信息时,在线存储信息的组织则有责任将其删除。如果企业不减少与数据相关的污染,他们还准备不再购买:超过三分之二(67.7%)的中国受访者表示,如果他们知道某家公司因未能控制其存储的不必要或不需要的数据而故意造成环境破坏,他们将停止从该公司购买产品。
该研究对全球13000名消费者进行了调查,其中63%的中国受访者表示,全球2%的能源相关污染排放是由数据中心造成的,这令他们感到担忧。作为回应,超过四分之三(77.8%)的中国受访者表示,他们希望看到企业更加关注控制在线数据存储对环境的负面影响。这可能包括企业鼓励其客户关闭未使用或不活跃的账户,并指导他们删除不再需要的过时信息。
Veritas首席可持续发展官Rags Srinivasan表示:“除了存储数据的成本之外,对环境影响的隐性成本应该是每个企业应该关注的首要问题。数据中心每天24小时运行,到2030年,预计将使用地球上所有电力的8%。我们很容易忽视数据中心很多是由化石燃料驱动的,其产生的二氧化碳量与航空业相差无几。”
该研究还发现,65%的中国消费者担心在线数据存储会浪费能源,并造成环境污染。根据此前Veritas《企业IT安全脆弱性报告》,IT决策者反馈了其企业内ROT、黑暗和关键业务数据的百分比,企业存储的数据中约有一半是冗余、过时或琐碎的(ROT),另外35%是价值不明的“暗”数据。
Srinivasan补充道:“即使企业将存储外包给公有云供应商,也不应低估不良数据管理实践对环境的影响。许多消费者热衷于减少碳足迹,但很多企业和组织仍在通过存储他们不需要的数据而不是他们认为有用的数据来造成更多污染——平均而言,这里面只有15%的数据对业务至关重要。有超过三分之二的消费者表示他们将不再在那些未能应对挑战的公司购买产品,如果不识别并消除不需要的数据,企业和环境面临的风险将无法估量,这一点不容忽视。”
关于调研
该研究由Veritas Technology 委托3Gem于2023年2月1日至16日完成。其数据来源于对澳大利亚、巴西、中国、法国、德国、新加坡、韩国、阿联酋、英国、美国和日本的13000名消费者。
关于 Veritas
Veritas Technologies是多云数据管理领域的领导者。超过八万家企业级客户, 包括95%的全球财富100强企业,均依靠Veritas确保其数据的保护、可恢复性和合规性。Veritas在规模化的可靠性方面享有盛誉,可为企业提供抵御勒索软件等网络攻击威胁所需的弹性。Veritas通过统一的平台,支持超过800种数据源,100多种操作系统,1400多种存储设备以及60多类云平台。在云级技术的支持下,Veritas现正在实践其数据自治战略,在提供更大价值的同时,降低运营成本。
Veritas中国官方网站 https://www.veritas.com/zh/cn/
Veritas官方微信平台:VERITAS_CHINA(VERITAS中文社区)
Veritas以及Veritas标识是 Veritas Technologies LLC 或其附属机构在美国和其他国家/地区的商标或注册商标。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。