AI导读:

谷歌“深度思维”团队发布“阿尔法量子比特”AI解码器,以高精度检测量子计算错误,连续10万轮模拟实验均保持高性能,为构建稳定可靠量子计算机奠定基础。

最新一期《自然》杂志揭晓了谷歌“深度思维”团队在人工智能(AI)领域的又一突破:一款命名为“阿尔法量子比特”(AlphaQubit)的AI解码器横空出世。这款解码器凭借卓越的精确度,在量子计算错误检测中展现了非凡实力,连续10万轮模拟实验均保持高性能,为打造稳定可靠的量子计算机奠定了坚实基础。

“阿尔法量子比特”采用神经网络设计,特别是融入了Transformer架构,这一架构已成为众多大型语言模型的核心。其核心任务是在实验结束时,通过一致性检查作为输入,精确预测逻辑量子位的状态变化,从而有效识别并纠正量子计算过程中的错误。

在训练阶段,团队利用“悬铃木”量子处理器的49个量子比特数据集,通过量子模拟器生成数亿个不同设置和错误级别的样本,对“阿尔法量子比特”进行初步训练。随后,团队进一步通过数千个实验样本来微调模型,使其更好地适应实际应用场景。这一训练过程确保了“阿尔法量子比特”在处理“悬铃木”新数据时,能显著提高错误识别的准确性。

测试结果显示,在最大规模的实验中,“阿尔法量子比特”成功将错误率降低了6%以上,相较于相关性匹配方法,其错误率更是低了约30%。这一成果不仅彰显了“阿尔法量子比特”在错误检测方面的卓越性能,也为其在未来量子计算领域的应用提供了广阔前景。

此外,团队还利用模拟量子系统数据对“阿尔法量子比特”进行了更高层次的训练,最高至241个量子比特。结果显示,“阿尔法量子比特”在超出“悬铃木”平台限制的情况下,依然能够超越现有的高级解码算法,展现出其在未来中型量子设备上的巨大潜力。

值得一提的是,在长达10万轮的模拟实验中,“阿尔法量子比特”即使经过最多25轮的错误校正训练,依然表现出色,这充分证明了其强大的泛化能力和稳定性。这一成果不仅为量子计算领域带来了新的突破,也为机器学习在量子纠错领域的应用开辟了新的道路。

团队表示,“阿尔法量子比特”的成功标志着使用机器学习进行量子纠错的重要里程碑。然而,尽管取得了显著成果,团队仍清醒地认识到,“阿尔法量子比特”在速度和可扩展性方面仍面临重大挑战。未来,团队将继续探索更加高效的训练方法,以期进一步提升“阿尔法量子比特”的性能和应用范围。

(图片来源:网络;文章来源:科技日报)