12月15日,堪称Intel史上最大变革的酷睿Ultra处理器正式登场,也正式开启了AI PC的新时代,预计未来两年将有上亿台PC驶上AI的快车道,让整个行业耳目一新。
为了推动AI、AI PC的应用普及,作为行业领袖的Intel可谓煞费苦心,今年10月底就启动了“AI PC加速计划”,鼓励AI应用创新,迅速有了100多家ISV软件伙伴、300多个AI辅助功能。
现在,Intel又正式启动了AI创新应用大赛,为广大开发者提供了展示创意和成果的平台,帮助每一位开发者抓住生成式AI带来的机遇。
报名地址:
https://marketing.csdn.net/p/f899a982bae56cc4b8ac9d65e41e387f
依托酷睿Ultra等软硬件工具,大赛将帮助开发基于Intel AI PC的出色应用,让每一位用户都能切实体验到AI PC带来的生产力、娱乐体验变革。
大赛将通过赛事平台、技术集训、专家答疑等形式,助力开发艺术创作、音乐制作、知识分享、效率提升等丰富的工作、生活、娱乐软件,让每个人都有机会成为艺术家、画家、作曲家、导演、设计师等。
此外,Intel正在推动IHV硬件厂商、ISV软件厂商、开发者与Intel的丰富资源互联互通,涵盖AI工具链、联合开发、硬件、设计资源、技术专长、联合市场推广机会等等,让AI应用真正全链条繁荣起来。
Intel AI创新应用大赛分设个人赛道、企业赛道两部分,前者面向个人或团队,包括AI开发者、AI爱好者、数据科学家、ML工程师、程序员、研究学者、在校师生等,后者面向企业,医疗、金融、零售、制造等各领域均可。
大赛设置一、二、三等奖及多个特别奖项,总奖金达52.5万元。
其中,个人赛道一等奖1名、二等奖2名、三等奖3名、优胜奖9名,每名奖金分别为30000万元、15000元、10000元、5000元。
企业赛道一等奖1名、二等奖2名、三等奖3名、优胜奖9名,每名奖金分别为50000万元、25000元、15000元、5000元。
特别奖项中,针对个人赛道的卓越创新团队5名,每名扶持奖金10000元;针对企业赛道的卓越创业企业5家,每家扶持奖金30000元。
Intel AI创新大赛已经启动技术培训,官方提供详细的培训资料。
参赛者可在2024年2月24日前提交初赛作品,入围半决赛名单将在3月1日公布。
半决赛作品提交截止到4月15日,入围决赛名单将在4月22日公布。
最终,5月10-11日举行线下答辩、颁奖典礼。
酷睿Ultra是首款集成NPU AI引擎的处理器,具有高能效、低功耗的优势,适合长时间运行的低负载AI推理工作。
比如视频会议中长时间的背景虚化、人眼追踪等,NPU加入后可以将CPU、GPU解放出来,从而让轻薄本拥有更持久的续航,官方称可节能38%。
NPU还可以联合全新架构的CPU、GPU进行平台化的AI处理,总算力达34TOPS,满足不同场景对AI算力的需求。
其中,CPU适合处理轻量级、低延迟的单次AI推理,GPU适合需要高性能、高吞吐量的AI应用,比如AIGC的文生文或文生图。
软件层面,Intel通过提供统一的开发框架,可以将不同底层机构的AI单元统一在一起,方便开发利用。
AI PC,正在加速走来!
文章来源:快科技
好文章,需要你的鼓励
这项研究由德累斯顿工业大学等机构的研究团队完成,旨在解决主动学习未被广泛应用的问题。研究者构建了包含460万种超参数组合的实验网格,系统分析了各参数对主动学习性能的影响。研究发现,不同策略实现间存在显著差异,基于边缘的不确定性策略整体表现最佳,随机选择约4000个超参数组合即可获得可靠结果。这些发现为设计可重现、可信赖的主动学习实验提供了明确指导,有助于降低入门门槛,促进技术在实际应用中的普及。
这项由英国爱丁堡大学和上海人工智能实验室研究者共同完成的工作提出了LongBioBench,一种用于评估长文本语言模型的新型基准测试框架。通过使用人工生成的虚构人物传记作为测试环境,该框架在保持可控性的同时,提供了更真实的评估场景。研究对18个长文本模型的测试表明,即使最先进的模型在检索、推理和可信任性方面仍存在显著挑战,特别是上下文长度增加时。研究还揭示了现有合成基准测试的设计缺陷和长上下文预训练的局限性,为未来模型开发提供了重要指导。
SuperWriter是一项来自新加坡科技设计大学和清华大学的突破性研究,通过模仿人类"先思考后写作"的过程,彻底改良了AI长文生成能力。该研究团队开发的框架包含三个关键阶段:规划、写作和修改,使AI能像专业作家一样进行结构化思考。实验结果表明,经过训练的SuperWriter-LM模型不仅超越同等规模的所有AI模型,甚至在某些领域表现优于规模更大的顶级模型,为AI辅助写作开创了新的可能性。
香港大学与阿里巴巴达摩院合作开发的LayerFlow是一种突破性的层级视频生成技术,能同时生成透明前景、完整背景和混合场景视频。该技术通过创新的框架设计将不同视频层级作为子片段连接,并引入层级嵌入使模型区分各层级。面对高质量训练数据稀缺的挑战,研究团队设计了三阶段训练策略,结合Motion LoRA和Content LoRA,实现了图像和视频数据的联合训练。LayerFlow不仅支持多层视频生成,还能实现视频分解和条件层生成,为视频创作领域带来革命性变革。