文件同步、共享和协同不是一个功能,而是一个产品,是“即服务”(例如SaaS)的最佳呈现。通过Box的三座数据中心和公有云就可以看出来,该公司表示,对于现代企业来说,现在这是一个内容平台。
这是Box传递的信息,而且很奏效,从Box正在增长并且增加的服务就可以看得出。
Box已经增加了自己的基础服务,例如针对IBM、Salesforce、微软Office、Google Android for Work的专有产品。此外Box还宣布推出了Box Platfor,一个用于认证、用户管理和内容访问的开放API集。
Stifel MD Aaron Rakers最近与Box公司首席执行官Aaron Levie及投资管理副总裁Stephanie Wakefield进行了会面,为了更好地了解Box在微软OneDrive、SharePoint以及Google方面的情况。他说,Box看到客户正在用他们自己的服务替换本地的SharePoint、OpenText以及最近收购的Documentum产品。
Box即将推出一系列专门的服务产品以推动客户支出:
- Governance:400多家客户,其中200个是在2016财年现有的客户
- KeySafe:加密密钥管理
- Zones:内部数据位置,利用IBM和Amazon数据中心
- Shuttle:更快速地将内容迁移到云
- Relay:将在2017年推出的内嵌内容工作流,与IBM协作
Box表示,自己的Relay产品允许员工构建、追踪以及管理定制的或者预构建的工作流,利用Box所有的所有安全、法规遵从和协同特性。
Box Developer Addition则让第三方开发者和企业客户开发可以利用Box实例的应用。
Rakers写到:“Box目前就这些附加解决方案并没有给销售团队下配额,我们相信在2018财年(也就是2017年)这个情况会有所变化。”Rakers预计Box会每年推出1-3个新功能,重点专注领域是在分析和工作流上。
目前Box有66000个客户,其中95%的收入是经常性收入。Box估算了平均客户价值(ACV),在过去3年中这方面的平均增幅是23%,也就是每个用户席位是8到10美元。最近一个季度(截止于2016年8月)的收入是9570万美元,同比增长30%,自从2013年至今的复合年增长率是51%,在这个季度的亏损是3810万美元。
预计在截止2017财年第一季度的自由现金流应该是正向的,但是现在还没有任何盈利。
目前Box数据中心内的所有数据都复制到公有云中,Rakers认为Box未来将会更多地利用公有云。
Box大幅增长期已经结束,目前正处于稳定建设基础设施的增长阶段。例如,Box已经聘请David Benjamin作为该公司高级副总裁、EMEA地区总经理。他来自电信提供商BT,担任全球服务运营副总裁,在2007年加入BT就成为业务负责人。该公司希望扩展欧洲市场,更加专注于德国,计划在德国开设办公室,最近还在阿姆斯特丹和斯德哥尔摩开设了办公室。
虽然Box现在是一家有些沉闷的公司,但不是一家平庸的公司。这是不寻常的,它必须稳步增长,以不寻常的方式,实现盈利,开始支付红利,也许还会开始收购其他公司以刺激增长。目前该公司的市值是19亿美元,股票交易价格为15.74美元,IPO上市日(2015年1月23日)的价格为23.15美元。当Box实现盈利的时候,股价应该会上涨,不过这可能要等到2018年了。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。