作为首个文件存储和公有云存储加速器提供商,Avere在E轮融资中获得了2700万美元,其中Google提供了部分资金。
创建于2008年的Avere,通过使用多层介质的方式加速对NAS阵列中文件的访问速度,并且区别对待不同的IO类型——例如读和写、连续和随机——来优化系统以加速访问。
除了现有的投资方——Menlo Ventures、Nowest Ventures Partners、Lightspeed Venture Partners、Tenaya Capital以及Western Digital Technologies——之外,还有新增的投资方例如Google,而且这次并不是通过融资部门GV(Google Ventures)进行投资的。
根据最初报道金额是1400万美元,但是在资金绒布之后,这轮融资的投资者又增加了一笔额外资金,使得金额达到了2700万美元。
Avere表示,希望利用这笔新的资金推动产品创新,推动扩展自己的混合云产品。
Avere公司首席执行官、总裁和共同创始人Ron Bianchini表示:“仅在2016年,Avere的云业务就增长了97%,增幅几乎是上一年的一倍,2016年结束之后云产品占年订购量的近一半。”
这件创建有11年时间的公司,开发的技术可以运行在远程办公和分支办公环境中,然后是前端公有云存储,以及扩展自己的软件运行在公有云中。
Avere看到自己的客户正在混合使用私有云和公有云存储以及计算设施,这正是他们关心的混合云。
Avere在2009年的A轮融资中获得1500万美元,在2010年的B轮融资中获得1700万美元,在2012年的C轮融资中获得2000万美元,在2014年的D轮融资中获得2000万美元,在最新的E轮融资之后,总融资金额达到9700万美元。
我们向Bianchini提出了一些关于这一轮融资的问题。
提问:公司距离盈利还有多远?
Ron Bianchini:我们目前的预期显示,我们将会在2018年实现盈利。
提问:你们将把E轮融资自己用于哪些混合云的功能?
Ron Bianchini:我们现在还没有准备好谈论新的云产品;不过,对我们来说,持续关注的重要领域包括简化在公有云中的部署,提升在云中的性能表现,改善可扩展性。
提问:你们有计划在产品中利用3D Xpoint或者其他存储级内存介质吗?这种存储介质适合于你们硬件中哪些现有的介质层?
Ron Bianchini:现在还没有路线图,但是我们倾向于把我们的架构看作是存储介质无关的。当一种介质的生命超过其价值,那么从技术上来说就没有理由不被其他更好的介质所取代。
提问:你支持哪些公有云,哪些是在路线图上的?你将使用哪些协议访问公有云?
Ron Bianchini:我们支持Google、AWS和Azure(只支持云爆发),目前路线图上暂时没有其他公有云——这三个公有云目前占到了超过90%的市场份额。我们利用S3访问云和NAS协议的存储部分以应对云爆发。
提问:你有多种云战略吗,这样你的可以就可以同时使用两种或者更多公有云?
Ron Bianchini:是的,这是Avere解决方案的优点之一,让客户能够在采用FlashMirror产品的多种云之间镜像存储。对于那些希望避免锁定于单一云提供商的客户来说,这是一个很受欢迎的功能。
提问:现在Avere有关注任何物联网边缘设备吗?
Ron Bianchini:我们对支持任何与我们采用相同协议语言的设备都很感兴趣。
评论
我们认为,2700万美元是一笔健康的资金,其中一部分将用于软件开发以增强云中产品的性能和可扩展性。
我们还认为,私有的FXT套件将能够更简单地与公有云交互,而且不需要非常专业的人员去操作。
好文章,需要你的鼓励
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。
这项研究探讨了多模态大语言模型在增强推理能力时出现的视觉幻觉问题。研究发现,模型生成更长推理链时,对视觉信息的关注减少,导致幻觉增加。研究者提出RH-AUC指标和RH-Bench基准来评估模型在推理与幻觉间的平衡,发现较大模型表现更好,纯强化学习训练优于监督微调加强化学习,且训练数据的类型比数量更重要。这些发现对开发既具推理能力又保持视觉准确性的AI系统具有重要意义。
这篇研究探讨了大语言模型在自动推理任务中的不确定性问题。研究者提出,模型生成形式规范时的概率不确定性不是缺陷,而是宝贵的信号源。通过引入概率上下文无关文法框架分析SMT-LIB程序分布,他们发现不确定性信号具有任务相关性(如逻辑任务中的语法熵AUROC>0.93)。他们的轻量级信号融合方法能减少14-100%的错误,仅需最小弃权,将大语言模型驱动的形式化转变为可靠工程学科。研究揭示当模型正确理解逻辑关系时会产生稳定的语法模式,为判断何时信任模型提供了可靠指标。
来自沙特阿拉伯王子苏丹大学和阿尔法萨尔大学的研究团队开发了GATE(General Arabic Text Embedding)模型,这是一套专为阿拉伯语设计的文本嵌入系统。该研究结合了套娃表示学习和混合损失训练方法,解决了阿拉伯语特有的语义处理挑战。GATE模型在MTEB基准测试的语义文本相似度任务中表现卓越,比包括OpenAI在内的更大模型高出20-25%,同时保持了多维度(768至64)的高效表现。研究通过详细的错误分析揭示了模型在不同相似度水平上的表现特点,为阿拉伯语NLP领域提供了新的研究方向。