昨天我发表了预测文章《全球首款企业级高端全闪存6大超越大猜想》,今天惠普举办的2015存储远见者高峰论坛上正式揭晓其新产品的6大超越。猜测的结果不太相 同。惠普给出的答案更加震惊!因为其给出的答案竟然是--超越存储。通过6大超越技术实现存储上巨大进步。众说纷纭,是不是真的超越存储,让我们先看看其提 到的6大超越。
我个人认为超越这个词有点宏大,因为提到“超越闪存”,我第一反应是难道有新的介质出现,不是闪存颗粒,而是碳元素什么的。同理超越融合、超越架构、超 越虚拟化、超越性能、超越扩展等6大优势给我的感觉是这款产品具有三体里面三体人的产品。超前,太超前!
因此是我,那么我会给出的主意那就是iPhone 6当时的火爆的“Bigger than bigger”,翻译过来就是“比更大还更大”。用在这里就是“flasher than flasher”翻译过来就是“比闪存更闪存”。当然我们还知道“Bigger than bigger”的更意境的翻译“岂止大”。“flasher than flasher”那么也可以 作为“岂止于闪存”是不是意境更贴切!
接地气、属于地球的产品就好说,先听听客户采用了惠普HP 3PAR StoreServ全闪存之后发出的声音,
惠普推出HP 3PAR StoreServ高端全闪存阵列真实的推动了客户业务的进步,从这个层次看存储不仅仅是IT设备,更是提升企业竞争力的有力工具。
为什么HP 3PAR StoreServ 20000系列是全球首款企业级高端全闪存阵列,中国惠普有限公司中国区副总裁、存储产品事业部总经理黄强解释说,“首先其实全闪存 阵列,其次其功能、技术、参数等比目前市面的所有友商产品都更好、更高、更技术,”所以称之为高端全闪存阵列。
闪存不是闪电,惠普表示拒绝以速度为标准。目前来看唯一全面实现企业级功能的高端全闪存设备,但是做到了高经济性闪存,实现了全民皆闪存。
在HP 3PAR 20000上,企业级功能包括实现了精简、重删等高端存储具备的功能,同时性能达到极致。
在HP 3PAR 20000上,借助业内容量为3.84 TB最大的固态硬盘,把全闪存存储的成本降低到每GB可用空间1.50美元,接近10K RPM SAS硬盘的成本。
中国惠普有限公司企业集团存储事业部产品市场总监徐润安认为,相对于其他厂商采用IP实现多控连接,惠普是业内唯一真多控技术的实践者。做到了以低延迟总 线高速连接的全网状多控架构。实现了99.9999%的可靠性。
8个引擎实现节点间的真正双活,同一卷由全部控制器同时管理,控制器之间对等连接,多控制器持续再镜像功能,保障数据的安全和一致性。
开放式融合管理
通过HP OneView一个工具、一套流程、相同的体验实现跨服务器、存储、网络的简化管理。
而且超融合系统在15分钟内完成部署,实现快速业务上线。
对于用户来说就打破了性能和容量局限
底层虚拟化支持多种RAID级别在磁盘中共存,提升利用率。
无固定热备盘,提高性能,实现快速重建。
管理简单无需担心连续坏盘,极大降低运维压力。
业内独有的高性能ASIC专用芯片,能够将CPU从繁重的工作中释放出来,8并行引擎实现0.2-0.8毫秒的延迟。
实现1000块以上的SSD扩展,60PB容量的极限闪存配置满足未来数据增长和业务发展。
同时还发布全闪存3PAR StoreServ 20800系列高端阵列,能够提供超过320万的IOPS,亚毫秒级的延迟,超过75 GBps的持续吞吐量,实现最高的应用性能。其可用 容量可以扩展至15PB。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。