最近看数据存储领等方面全球营收以及发展报告。根据相关报告总结出一些建议,如果2018年存储领域的相关厂商能够在这几个领域发力,就可以很大程度上提升其年度营收来获得品牌和服务价值等方面的增值。
全球来看,在2017年闪存SSD的收入为249亿美元磁盘为240,亿美元。也就是说在2017年,客户在SSD产品层面的支出首次超过磁盘。但是我们也看到了从出货总容量来看,磁盘存储出货容量仍达到闪存的十倍以上。
根据最新的报告显示,2017年全球企业级SSD出货存储容量总计达7.18 EB,较上年同期的5.57 EB增长29%。
而在企业级硬盘领域,随着视频监控领域、公有云领域以及对象存储领域对手海量数据增长的需求,希捷、西数以及东芝还在积极推动磁盘技术的发展。大容量、低成本、低能耗的企业级磁盘还将在未来几年在数据中心领域占有很大的份额。
2018年存储厂商可以分别闪存和硬盘方面继续双重出击。
再闪存方面基于最新的闪存技术在积极推动。西部数据公司最近已经确认了基于其专有控制器架构的新一代CSSD PCIe产品; 首款面向移动设备的UFS产品; 外加96层BiCS4 NAND技术。英特尔力推存储级内存,Storage Class Memory,简称SCM概念。这是介于DRAM和NVME之间的一个非易失性存储。
这其中华为认为这将导致SCM(存储级内存,Storage Class Memory)1.0时代的到来,通过在SCM介质、NVMe和NVMeoF的速度之间的平衡,构建新一代全闪存系统。
在硬盘方面基于海量存储技术推动,希捷科技日前发布12TB企业级海量盘,该盘兼具大容量及业界最低能耗和最轻重量,满足个人和公共云数据中心日益增长的存储需求。东芝也发布了14TB氦气海量硬盘。所以存储厂商要在2018年获得增长,需要在这两方面进军,一方面是基于闪存的全闪存阵列进军关键系统业务增长。一方面基于海量硬盘的存储系统,包括在视频监控领域、公有云、对象存储等领域的海量数据存储的需求。
这里我们看到,在闪存领域, NetApp积极布局,公司公布的最新财报当中,全闪存全年总营收为15.2亿美元,较上年全年的14亿美元增长8%。华为2017前三季度厂商全闪存存储 全球收入增速第一,高达200%以上的增长。
在大容量磁盘领域包括百度、腾讯、阿里等公有云服务商以及浪潮、曙光等积极与各个磁盘生产上在企业级存储、硬盘技术以及闪存解决方案等领域开展深入合作,并建立联合实验室,促进中国云计算、大数据的持续健康发展。
在2018年,全球主要存储厂商将重点关注在超融合领域。Gartner报告显示,在2017年,全球集成系统收入预计在2018年达到123亿美元,比2017年的102亿美元增长18.4%。
而这主要增长是超融合系统。超融合集成系统2017年营收28亿美元,预计2018年营收44亿美元,增幅为55%,这个增长相信各大存储厂商非常眼红,也可以看到各大存储厂商将在2018年继续积极投入到超融合系统中来。
资料来源:Gartner(2018年3月)
在超融合市场方面包括,Dell EMC存储业务全年营收达到153亿美元,其中超融合产品组合实现三位数需求增长。超融合领域领导者Nutanix在2018年已经收购了两个初创企业,包括公有云计费系统和分布式云空间中发现、映射和管理微服务。积极推动超融合系统不断扩展到更多领域。
随着企业业务的增加和数据的增长,数据的管理和保护越来越重要,将拉动存储营收的大幅度增长。从业务上看基于人工智能、物联网、机器学习等技术的应用产生的数据价值越来越大,从数据量来看,各种交易数据、视频、音频、文档、邮件及移动数据增长等,因此数据保护,从本地存储再到云上数据,数据的保护、备份、恢复对于企业的重要性愈发凸显。
可以预见在数据备份和保护领域,如果围绕云和虚拟化环境开发数据保护技术,那么其将具有满足企业业务需求的核心竞争力。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。