科技和风险投资领域的十几家知名公司正在把赌注压在一家会撼动数据存储市场、名为Cohesity的初创公司上。
领投的GV是Alphabet的风险投资部门,这轮融资中已经向Cohesity投资超过9000万美元,使其外部总投资金额超过1.6亿美元。就在不到一年前,Cohesity走出隐身模式,推出了一款旨在保存所谓二级数据的存储系统。
据Cohesity称,这类数据包含备份、归档文件以及企业几乎不定期使用的任何类型的信息记录。Cohesity宣称这种信息在企业存储基础设施中占比大约能达到80%。Cohesity的系统提供了一个集中化的控制台,允许管理员在一个地方统一管理他们的所有文件,这在很多方面都是非常便利的。
首先,Cohesity的平台不需要企业处理二级数据所常用的单独的工具和设备。Cohesity宣称,他们的方法打消了技术壁垒,以前这些壁垒使得管理员很难找到冗余的信息,无法为其他工作负载释放空间。
Cohesity通过提供一系列旨在简化日常运营的高级管理功能来解决这个问题。Cohesity的平台允许存储人员查找记录、分析存储使用情况以寻找需要改进的方面,并采取措施以确保信息是随时可用的。如果企业本地硬件空间不足的话,它还提供了将文件迁移到云中的选项。
Cohesity以预配置系统和虚拟设备(可以安装在主流公有云平台或者第三方硬件上)的形式售卖这款平台。目前它兼容来自HPE和思科的硬件设备,而且这两家公司与GV一起都为这轮融资做出了贡献。
根据该公司的融资公告,Cohesity将把这笔新的资金用于扩大全球业务,扩大销售、营销和工程规模,专注于开发“除了数据保护之外的二级存储使用实例”。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。