离子阱是通过电磁场将离子限定在有限空间内的设备,被认为是有望实现大规模量子计算的物理系统之一。如何把大量离子稳定“囚禁”于离子阱,再通过激光控制,制造量子计算的基本数据单元“量子比特”,是项国际性难题。
中国科学院院士、清华大学交叉信息研究院段路明教授团队5月30日在国际学术期刊《自然》上发表一项量子模拟计算方面的突破性成果。该团队首次利用二维离子阵列实现了目前已知国际最大规模、具有“单比特分辨率”的多离子量子模拟计算,为实现大规模量子计算提供了新路径。
以离子阱制造量子比特具有长相干时间和高操控精度的优势,但该技术路径的瓶颈在于很难同时实现大量离子的稳定“囚禁”和准确操控,在集成走向实用化和工程化方面尚存在挑战。如何扩大能准确操控和测量的量子比特数量是该研究的焦点问题。
清华大学交叉信息研究院助理教授吴宇恺说,此前国际上曾基于不同技术路线实现约200个离子的量子模拟计算,但因无法探测区分单个离子的状态、难以提取相关重要信息,无法用于精密的量子模拟计算及更大规模的通用量子计算。
“我们利用低温一体化离子阱等技术,提升离子稳定性,并利用平面状的二维离子阵列方案大幅增加离子量子比特数,在国际上首次对512个离子实现了稳定‘囚禁’和冷却?!蔽庥钼?。此外,团队还首次实现300个离子“单比特分辨”的量子态测量,“可区分每个离子的状态并提取其信息”——这是量子计算的基础条件。
量子模拟计算可模拟量子系统的运动与演化过程,是实现通用量子计算前量子计算机主要的应用形式?!罢庀罟ぷ魑芯扛丛恿孔酉低车然】蒲侍馓峁┝饲看蠊ぞ?,未来有望应用于材料和药物研发、工程优化、人工智能等多领域?!倍温访魉?。(记者魏梦佳)
【纠错】 【责任编辑:陈听雨】