来自浪潮和中科院等多家科研单位的中国科学家近日联合发表关于最新量子计算研究的论文,提出了以半导体量子环构建量子计算机的理论设想,提供了一种新的可行的量子比特实现方式。该论文已经被英国皇家化学学会的杂志Phys. Chem. Chem. Phys.收录并予以刊发(Phys. Chem. Chem. Phys., 2017,19, 30048-30054 )。
浪潮等中国科学家近日联合发表关于最新量子计算研究的论文
量子计算机是通过叠加和纠缠的量子现象来实现计算力的增长。量子叠加使量子比特能够同时具有0和1的数值,可进行"同步计算";量子纠缠使分处两地的两个量子比特能共享量子态,创造出超叠加效应:每增加一个量子比特,运算性能就翻一倍。理论上,拥有60个量子比特的量子计算机可瞬间实现百亿亿次计算(E级计算)。
神秘的量子世界
量子计算的巨大潜在价值,使得它成为最火热的研究项目之一。中美日欧各国都在整合各方面研究力量和资源开展协同攻关,谷歌、微软、IBM 、英特尔等科技公司也已经开始量子计算的研究。今年5月,IBM发布16个量子比特的系统,半年之后即发布新型的20位量子比特的量子计算机,并宣称已成功开发出一台50位量子比特的原型机。谷歌量子硬件负责人约翰·马丁尼斯(John Martinis)则在10月透露谷歌已拥有22个量子比特的芯片,并且计划在明年发布49个量子比特的芯片。中国也在5月初发布了世界首台超越早期经典计算机的光量子计算机,成功实现了10个超导量子比特纠缠,预计年底可以实现操纵20个量子比特。
作为信息载体的量子比特的实现方式,是量子计算机的研究中一项关键性技术。优秀的量子比特实现方式一般需要满足几项特定的要求,如较为容易的物理载体的实现方式、容易的初态制备和操作、较长的相干时间等等。
目前,量子比特的实现方式主要有光子、离子阱、超导环、半导体量子结构等,基于这些不同物理载体实现的量子计算机各有优劣,如光子相干时间较长但难以观测和控制,超导环易于控制但相干时间极短,而离子阱虽然相干时间较长且易于控制,但由于需要频繁的激光操作,因此效率不高。
此次浪潮集团和中国科学院微电子研究所微电子器件与集成技术重点实验室、重庆邮电大学理学院、厦门大学物理科学与技术学院半导体光子学研究中心的相关研究人员从理论上提出的半导体量子环设想,可使用半导体量子多电子环中电子自旋轨道耦合调控的手段,通过外场或电子数的方式实现对量子态的有效调控,并通过光学手段很容易探测。更重要的是,基于半导体量子结构的实现机制则可以利用现有的半导体工艺,从而可以较为平滑地从经典的半导体芯片过渡到量子芯片。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。