存储业界普遍认为,除了EMC之外、只有NetApp能够单纯运用自己的存储技术积累构建起存储平台。然而如今Pure Storage也希望参与进来,这家依靠全闪存阵列产品起家的新兴企业表示,他们打算努力成为下一家拥有自己存储平台的厂商。
NetApp手中握有历史悠久的存储系统产品、一大批忠实的客户以及由供应商与相关支持培训厂商构成的生态系统。
而自NetApp之后,全部存储新兴企业都只有以下几条道路可以选择:要么被收购、要么组织首轮公开募股并忍受股价萎缩、要么不进行公开募股并忍受股价萎缩,再就是固守在规模相对较小的利基市场当中。
因此,此次发布的公告对于Pure无疑是个绝佳的市场推广机遇。不过这一切真如表面上所见吗?要想获得成功,他们尚需作出哪些努力?下面是我们对此给出的答案:
要想真正成为一家平台存储厂商,Pure当前最重要的一项任务就是在产品销售与市场推广以及技术开发方面带来优于竞争对手的实际表现。就目前来看,其竞争对手可能包括:EMC与Solidfire、NetApp与Violin,再加上IBM、思科、华为、Skyera以及其它厂商。此外,Pure还需要确保其竞争对手Kaminario不会在利基市场上迅猛发展并逐步迈向更为广泛的企业级产品领域。
说了这么多,Pure到底有没有可能完成这一系列挑战?在我们看来,其面临的最大难题包括服务器-SAN方案、公有云计算以及开发出足以超越众多竞争对手技术水平的产品成果——这基本上涵盖了全部存储硬件厂商。因此,我们要为Pure的命运划下一个大大的问号。
好文章,需要你的鼓励
亚利桑那州立大学的研究团队开发了RefEdit,这是一种新型图像编辑AI系统,能够准确理解和处理指代表达(如"中间那个人"、"右边的猫")。通过创建RefEdit-Bench基准测试,研究者们证明现有模型在多物体场景中表现不佳。他们设计了一种创新的数据生成流程,仅用2万样本就训练出的RefEdit模型超越了使用数百万样本训练的大型模型。这一突破使AI图像编辑在复杂场景中更加精确和实用。
这项研究提出了Critique-GRPO,一种创新的在线强化学习框架,将自然语言批评与数字反馈相结合,克服了传统仅用数字反馈的三大局限:性能瓶颈、自我反思效果有限和顽固性失败。实验表明,该方法使大语言模型能够从错误中学习并改进,在八项数学和通用推理任务中,将Qwen2.5-7B和Qwen3-8B模型的平均通过率分别提高了约4.5%和5%,超越了包括那些引入专家示范的方法。研究还揭示,高熵探索和长回答并不总是最有效的学习方式,质量更重要。这一方法为大语言模型的自我提升能力开辟了新路径。
这篇研究介绍了"量化LLM评价者",一个创新框架,能使大型语言模型(LLM)在评估其他AI输出时更接近人类判断。由麻省理工和Adobe联合研发的这一方法,将评估过程分为两个阶段:先让LLM生成文本评价,再用轻量级机器学习模型将这些评价转化为更准确的数值评分。研究提出了四种评价者模型,适用于不同评估场景,实验表明它们不仅能显著提高评分准确性,还比传统微调方法更节省计算资源。这一框架特别适合人类反馈有限的场景,为AI评估领域开辟了高效且可解释的新路径。
这项研究由IDEA、华南理工大学和北京大学联合开发的Rex-Thinker系统,通过模仿人类的链式思考方式来解决物体指代问题。与传统直接输出边界框的方法不同,它采用规划-行动-总结的三步骤推理,使AI能像人类一样逐步分析图像中的候选物体,并在找不到匹配物体时拒绝作答。通过构建90,824样本的HumanRef-CoT数据集和两阶段训练方法,系统在精度、可解释性和泛化能力上均取得了显著进步。