2015年倒计时的时候爆出蚁视融资3亿人民币,成为2015年资本寒冬最后的一针兴奋剂。元旦假期刚刚过去,2016年第一场盛会就是1月6-9日在美国拉斯维加举行的国际消费电子展(CES)了,游戏和虚拟现实区位于南馆(South Hall)大厅层的S2区域,这里将会是16年虚拟现实最新技术的集中展示区,Oculus(26002)、Virtuix(26015) 等国外厂商以及国内的ANTVR蚁视(26413) 将集中展示最新VR科技。作为CES连续邀请参加的国内虚拟现实领军企业,又刚刚完成巨额融资,蚁视此次要展示的内容让人非常好奇。
此前业内一直传闻蚁视即将对外发布二代头盔。然而从蚁视已对外发出的CES邀请函“丈量世界的脚步从未停止”来看,图中并没有头盔等产品的露出,反而有一个怪兽,怪兽头部有一个明显的摄像头、地上有网格状红点。
这应该与蚁视之前曾经发布过的位置追踪技术有关。在2015年6月洛杉矶E3游戏展,蚁视对外展示自主研发的虚拟现实头盔位置追踪技术——全息甲板(HoloDeck),体验了多个可以在里面自由行走的场景。这种技术带来的好处,就是将游戏与现实场景融合,玩家在游戏中走、跑、起跳、下蹲等各种动作,都可以完全追踪,更加有沉浸感,更加真实,实现真正的移动式完全沉浸的游戏体验,位置跟踪技术可以缓解目前虚拟现实引发的不适感问题。本次CES最受关注的HTC Vive和Oculus Rift CV1两款虚拟现实头盔都会配有位置追踪设备。HTC Vive是通过墙上的两颗激光传感器识别佩戴者佩戴的机身上的位置追踪传感器从而获得位置和方向信息;Oculus Rift CV1用外部位置追踪摄像头识别佩戴者机身上的红外灯。而蚁视的位置追踪技术与HTC、Oculus的方案完全不同,是在机身上放置红外摄像头,对地面上铺有特殊的标志点进行捕捉,这样的方式可以让位置追踪的范围无限扩展。体验效果到底哪家强呢,值得期待。
如果此次蚁视真的在CES对外展示其二代头盔,二代头盔极有可能增加位置跟踪的功能。除此之外二代头盔还会有哪些新特性?16年几家国外厂商的VR设备都将进入消费者版,CES作为16年的首次盛会相信各家也都会使出杀手锏,以蚁视一贯以来特立独行独立研发的做派来看,此次CES展示的硬件还是非常值得期待的。
除此之外,蚁视积极搭建游戏内容生态并发布相关网游手游,笔者猜测蚁视可能会展示一些相关游戏内容,据传蚁视在国内也在开发占地面积2000平米的鬼屋VR体验馆,可以实现同步位置跟踪效果,此次会不会对外展示具有位置跟踪功能的鬼屋游戏?
除了PC端虚拟现实设备,蚁视移动端VR产品会不会一起亮相呢,VR一体机?VR眼镜盒子?会不会推出最新的VR游戏?刚刚融资3亿的蚁视在巨额资本的推动下是否能在国际舞台上展示惊艳世界的黑科技?这一切都将在1月6日CES现场揭晓。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。