日立集团 (TSE: 6501) 旗下提供现代基础架构、数据管理与数字解决方案的子公司 Hitachi Vantara今天宣布,其Hitachi Content Platform (HCP) 对象存储业务录得大幅增长,2022上半财年净增大量新客户;预计2022财年第二季度与2021财年第二季度相比业绩增幅达40%以上,大幅超过13.6%的市场年复合增长率。鉴于企业在将数据转化为有价值的洞察以改善客户体验、提高效率和推动创新方面普遍面临重重挑战,这一增长的意义尤为重大。
非结构化数据占所有存储数据的90%,是实现“以数据为中心 (Data Centricity)”的关键一环。然而,绝大多数非结构化数据从未进入到分析视野,因此往往难以得到利用。为帮助企业高效地处理这些信息,高级分析和商业智能工具至关重要。它们可以轻松分类和理解数据,对数据进行管理,并使其具有可操作性。GigaOm近期的一份报告指出,“通过正确的流程和工具,企业可以利用数据做比以往更多的事情,挖掘数据中隐藏的洞察,并在此过程中捕捉到令人难以置信的价值,将数据从负债转化为资产。”
Hitachi Vantara 首席产品官 Radhika Krishnan 表示:“高质量非结构化数据平台的作用不仅仅只是存储数据——强大的分析对于深入了解企业内部的数据模式和趋势至关重要。当前,客户需求不断在变化中发展,IT 部门也从辅助性角色转变为重要使能者。HCP在解决重大数据挑战方面具有的独特优势,可以更快提供更准确的洞察,从而帮助企业节省成本、提高员工生产力并改善客户体验。”
Hitachi Content Platform 为对象存储增添智能
HCP提供了一个广泛的解决方案生态系统,包括全面、智能的数据管理,超越了单纯的对象存储,以释放数据资产的全部价值。Hitachi Vantara的HCP产品组合提供强大的功能,使客户能够超越企业围墙,扩展至云端和边缘。种种优势使其不仅被GigaOm雷达报告评为非结构化数据管理业务解决方案的领导者,也荣登DCIG评出的五大企业内部SDS对象存储解决方案之一。
DCIG报告称,“与本次评估的其它解决方案相比,HCP展示出了广泛的部署、云和分析支持”优势,并称,“Hitachi Vantara通过其软件产品组合对HCP进行了补充,该软件产品组合提供扩展的数据管理、治理、分析、协作和文件网关功能。”
HCP 合作伙伴客户用例
荷兰云服务提供商Data Matters首席执行官Paul Schindeler 表示:“长期数字化保存的主要目的是以可读性和可解释性(真实性)都能得到保证的方式保存原始数据和元数据。由于数据格式、合规性、应用和使用在数据生命周期中会发生变化,长期保存已变得更具挑战性。我们的客户关注如何通过安全的传输为数据往返云端提供保障,以存储或保存数据并使其易于访问。Hitachi Content Platform成功满足了所有这些要求,提供了一个理想的平台,而基于该平台所搭建的解决方案既能将分析与私有云整合起来,又能帮助确保数据的隐私性、安全性和寿命。”
加拿大安大略省云计算服务提供商ThinkOn首席技术官Ahsan Khan 表示:“作为一家云服务提供商,我们自豪地提供可无限扩展并促进数据创新的基础架构,该基础架构同时还能确保客户现有系统中的灵活性、安全性和投资保护。我们相信,对象存储是能够支持我们安全地提供存储服务的理想技术。该技术通过采用强大的数据保护策略,包括加密、对象锁定和敏感数据多备份,帮助防范最新的网络攻击和勒索软件威胁。我们的数据保护即服务产品以Hitachi Content Platform (HCP) 产品组合为基础,为客户提供行业领先的备份、灾难恢复、分析和存储服务产品选择。”
好文章,需要你的鼓励
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
麻省理工学院研究发现过度依赖AI会导致认知债务,削弱基本思维能力。研究表明交替进行无辅助思考和AI支持工作的模式能保持认知敏锐度。这种认知高强度间歇训练模仿体能训练中的HIIT模式,通过短时间高强度思考与恢复期交替进行,可以强化大脑神经回路,防止认知衰退,提升独立思考能力。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。