新闻动态
您现在的位置:首页 >> 新闻动态
Nana Liu团队在Physical Review A发表最新研究成果:量子分类对抗性扰动的脆弱点Vulnerability of quantum classification to adversarial perturbations
发表时间:2020-06-22 阅读次数:99次

       2020年6月22日,上海交通大学自然科学研究院、科学工程计算教育部重点实验室成员Nana Liu及其合作者关于对抗性量子学习的最新研究成果在Physical Review A发表。这篇题为“Vulnerability of quantum classification to adversarial perturbations”的论文被编辑遴选为Editor’s Suggestion,作为PRA官网主页的亮点文章 。

      在量子计算机上运行的量子计算可被设计用于分类问题,例如帮助机器学习蚂蚁和蝉的图片的区别,这对于在实验室中创建的量子数据(例如量子态本身)更为有效。使用量子计算机进行机器学习在安全方面也有更重要的应用,例如帮助机器学习信用卡是欺诈性的还是合法的。我们可能会认为我们使用这些设备是安全的,但是当一个对抗样本试图攻击量子计算机使量子学习者做出错误的预测时,会发生什么呢?当机器学习算法受到攻击时,量子计算机有多脆弱呢?

       最近由Nana Liu教授领导的一项研究工作在对抗性量子学习的新领域迈出了第一步。这项工作证明了一个一般理论上界来阐述量子机器学习设备在分类问题上受到攻击容易程度。该论文论证了如果我们对所想要学习的数据一无所知,那么随着数据的增长,量子计算机变得越来越容易受到攻击。此漏洞可能损害量子设备可提供的任何加速优势。但是,如果我们有更多关于我们想要分类的数据的信息,那么这种对数据大小的依赖性就会大大降低。这意味着在数据输入量子计算机之前,我们可以通过一些对数据的学习来保护自己。

论文链接:https://journals.aps.org/pra/abstract/10.1103/PhysRevA.101.062331

上篇文章 下篇文章

Copyright © 2012 上海交通大学教育部科学工程计算重点实验室       技术支持:维程互联