中国北京,2014年4月9日讯 — 全球领先的营销平台AppLovin (纳斯达克代码: APP)与快速增长的社交商务平台Flip宣布,Flip将利用AppLovin的AXON技术重新启动其针对品牌的营销平台。此外,Flip还宣布C轮融资达到1.44亿美元,其中包括AppLovin的5000万美元投资。
为了帮助广告客户进一步实现规模化及表现提升,AppLovin于2023年推出AXON技术。通过此次合作,AppLovin将其AXON技术开放给其他合作伙伴。Flip的品牌商将通过AXON Connect利用AI广告引擎,以可衡量的方式触达更多受众并在Flip平台获得更高的回报。此外,Flip将通过此次合作扩大受众网络,使其平台上的品牌商能够触达AppLovin网络中的14亿日活用户。
“我们已经看到 AXON 对广告活动表现产生的重大影响,因为很多品牌都获得了更高的投资回报。由 AXON 赋能的 Flip 广告,将使Flip 平台的消费者轻松找到更多可购买的商品。同样,Flip上的品牌主也能够显著提高销售额。” AppLovin 联合创始人兼 CEO Adam Foroughi 表示,“Noor是一位杰出的创始人,带领Flip度过了寻找产品市场契合度的艰难阶段。现在,市场已经明朗。我们相信此次合作将使Flip及其品牌主进入令人兴奋的增长阶段。”
Flip 本轮融资由Streamlined Ventures领投,早期投资者Mubadala Capital 和 WestCap 也参与其中,AppLovin则是本轮新的投资者。这使该公司的融资前估值达到了10.5亿美元。
“我们不久前刚推出了MagicOS广告管理器,此次即将推出的由AXON赋能的广告更将使我们如虎添翼。我们将信心百倍的为众多品牌找到精准的目标用户。” Flip 公司CEO Noor Agha 表示,“我们非常高兴得到投资者的继续支持,也很高兴AppLovin的加入。”
关于AppLovin
AppLovin致力于为不同规模的企业打造强大技术解决方案,与理想客户建立联系。公司提供的端到端软件和AI解决方案能帮助客户触达全球受众、提高用户量并实现高效变现。要进一步了解AppLovin,欢迎访问www.applovin.com/cn/。
关于 Flip
Flip 正通过人与人之间的联系构建下一代购物社交网络。随着购物者社群的日益壮大,消费者能够在Flip平台发布购买产品的视频评论,而其他买家则能够在60秒内看到此内容并发现该商品。此外,每条用户生成的内容均提供一键购买及当日发货功能。每个购物者都能够通过分享自己的购物评论获得佣金。了解更多内容,请访问www.flip.shop,也可以在iOS及安卓平台的应用商店下载Flip。
前瞻性陈述声明
本文包含了《证券法》第27A 条和1934年《证券交易法》第21E 条所指的“前瞻性声明”。本文的前瞻性声明包括但不限于,关于Flip未来使用的AppLovin技术以及该技术对Flip表现的预期,AppLovin客户能否通过此次合作实现销售或回报能力的提升。本文的前瞻性声明受风险及不确定因素的影响,包括与公司之间交易相关的风险和不确定性,以及本公司截至2023年12月31日止财政年度年报10-K表格中所述的风险。本文中的前瞻性陈述均基于本公司截至2024年4月2日可获得的信息,除法律要求外,本公司不承担更新任何前瞻性陈述的任何责任。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。