2020年7月15日,北京——今日,Hitachi公司旗下数字基础架构和解决方案公司Hitachi Vantara宣布推出全新的分布式文件系统和管理解决方案,旨在帮助客户更加快速地访问包括邮件、文档、健康记录、音频、视频和图像等在内的非结构化数据,并从中获得洞察。
这一全新的解决方案将由Hitachi Vantara和WekaIO(Weka)合作提供。Weka是针对数据密集型应用的高性能、可扩展文件存储的创新领导者。同时,Hitachi Vantara还宣布了对Hitachi Content Platform(HCP)的全新扩展,HCP的云对象存储软件解决方案将用于连接数据生产者、用户、应用程序和设备。HCP的这些更新将更好地支持新一代非结构化工作负载。
Hitachi Vantara与Weka的OEM合作将会以高性能、NVMe原生、并行的文件系统增强Hitachi Vantara的产品组合,这一文件系统将会与HCP数据存储紧密耦合。此种高性能的网络附加存储(NAS)解决方案能广泛适用于各行各业的人工智能、机器学习和分析应用程序。
HCP的此次功能扩展采用性能优化的全闪存HCP节点,可更好地支持新一代非结构化数据工作负载。这些增强的功能可帮助客户在Amazon Simple Storage Service(S3)协议上实现与以往相比3.4倍的吞吐率,并降低多达34%的成本。
更新后的存储节点将读写的性能提升了三倍,同时在与上一代产品相同的机架空间中实现了三倍的容量提升——这一点至关重要——为了满足高性能需求,企业组织正将其传统NAS存储、主要工作负载和云原生工作负载不断迁移到对象存储。
新的HCP扩展还可帮助客户更快地将数据转化为业务洞察,利用非结构化数据中衍生出的数据增加营收,同时不断改善应用程序的性能表现,为最终用户带来更好的数字化体验。
Hitachi Vantara数字基础架构总裁Brian Householder表示:“越来越多致力于转变为‘数据驱动型’的组织和公司开始认识到,其从急剧增长的海量非结构化数据获取价值的必要性,以期为他们带来强大的竞争优势。通过大幅提升客户访问和连接数据时的性能表现,Hitachi Vantara正帮助客户最大程度地发挥他们的基础架构优势,以更快速、准确地进行决策。”
随着工作负载的大小和类型发生根本性的改变,企业组织不仅需要聚焦于扩展存储解决方案,还需要满足性能要求。例如,对于一家典型的《财富》 500强公司而言,事实上,数据可访问性仅增加10%,即可带来超过6,500万美元的额外净收入。
日前,Hitachi Vantara已经通过一家金融服务行业客户验证了HCP新的性能优势。该客户需要为其交易量繁重的核心银行应用配备更高性能的存储解决方案,该应用服务于全球超过5,000万的消费者和小型企业客户。在该项目中,只有HCP的全闪存配置满足了客户所需的性能和安全性的解决方案。数据显示,与公司现有的传统对象存储解决方案相比,HCP的全闪存配置实现了高达300%的总体性能提升,其中部分工作任务甚至取得了1200%的性能提升。
与此同时,另一家工业领域的客户也寻求Hitachi Vantara的解决方案来处理其日益增长的制造、销售和分销的数据,这些数据已经让该公司的存储基础架构达到临界点。HCP成功帮助该公司将应用程序的响应速度提升了500%,并让该客户能够在一个中央对象存储池中,管理大量不同来源、多种格式的非结构化数据。
IDC基础架构系统研究总监Amita Potnis表示:“CIO和IT专业人员们不再仅仅是为了合规性、归档、次级存储或冷数据存储而选择对象存储。如今,他们开始考虑使用对象存储来支持更多新的使用场景和高性能工作负载。他们也寄希望于通过分布式文件解决方案来满足规模和性能等方面的需求,以进一步支持高性能计算、实时分析和AI等。”
好文章,需要你的鼓励
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌近期悄然调整账户存储政策:新注册用户若未绑定手机号,免费存储空间将从原来的15GB缩减至5GB。用户需验证手机号后,方可获得完整的15GB空间,用于Gmail、Drive和Photos的共享使用。谷歌表示,此举旨在确保存储空间"每人仅限一份",有效防止滥用。有分析认为,存储硬件成本上升也是推动此次政策调整的重要原因之一。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。