经典|量子的叠加和规模的并行

经典|量子的叠加和规模的并行

文章图片

经典|量子的叠加和规模的并行

文章图片

经典|量子的叠加和规模的并行

文章图片


人工神经网络是其中最具代表性的繁荣的计算范式 。 早期的神经网络可以追溯到神经元 。 在过去的几十年中 , 利用一些技术因素 , 如新以及可扩展的软件平台和强大的专用计算硬件 , 机器学习的发展基于神经网络的技术取得了进展和突破 。 目前 , 神经网络取得了巨大的成功在机器学习的各个领域都有广泛的应用 , 比如模式识别 , 视频分析 , 医疗诊断 , 还有机器人的控制 。



一个值得注意的原因是人们对探索新的神经结构的热情日益高涨 , 包括专家知识手工方式和自动方式通过自动机器学习 。 特别是2016年 , 深度残差网络中国科学院机器视觉与信号分析中心奥卢大学 。 提出了极深的架构 , 显示了优秀的准确性和良好的收敛行为 。 他们的成果获得了第一名 , 2015年大型视觉识别挑战赛分类任务分类和实现 。 在许多研究和工业应用方面取得革命性的成功 。



与人工神经网络并行发展的是量子神经网络的出现有可能避免由于量子的使用而造成的经典计算的局限性计算 。 与经典计算相比 , 量子计算由于量子的性质而具有可能的优势力学 , 如量子纠缠 , 量子叠加和大规模并行 。 早期的量子神经网络甚至可以追溯到20年前 。 作为目前的量子技术和在设备开发过程中 , 人们对将量子计算与人工神经网络结合起来以获取量子数据有着巨大的热情了 。



【经典|量子的叠加和规模的并行】引起了我们的注意 。 一方面 , 它为读者提供了可访问的代码 。 在另一方面 , 这篇论文展示了一个真正的量子神经元的形成一个量子前馈神经网络 。 它有非凡的能力学习未知的酉和对噪声的惊人的鲁棒性训练数据 。 这项工作对于有噪声的中等尺度是很重要的量子器件由于相干的数量减少量子位 。 我们对此很感兴趣 。 本工作中的成本函数被选为纯量子态和任意的量子态 。



不过 , 作为网络的数量层越深 , 我们发现收敛的速度越快函数减小 , 收敛值甚至不能达到干净数据的最大值 。 对于噪声数据 , 从这可以看出 , 对噪声数据的鲁棒性变弱随着网络越来越深 。 所以我们想知道性能的成本函数为清洁和噪声数据是否可以改进 。 这里我们使用一个一维列表自然数来表示感知机中的数量相应的层 。 受深度剩余学习效率的启发 , 我们尝试设计了一种新的具有深度的量子经典神经网络剩余学习来实现我们的目标 。



这个想法很新奇 , 据我们所知 , 还没有人尝试过到现在 。 我们希望探讨如何将剩余方案放入有效 。 这并非微不足道 。 首先它是一个封闭的量子系统 。 一个封闭的量子系统的动力学被描述为酉变换 。 其中的输入和输出矩阵啤酒等的单位轨迹是一个重要的约束条件 , 对于密度矩阵 。 残余方案可能增加痕迹输入输出矩阵 , 这将导致无法在量子计算机上实现 。 第二我们目标是提高二者的性能成本函数干净而嘈杂的量子数据 。



我们希望这个实验可以不仅在量子计算机上进行 , 而且也有提升的性能第三 , 连接残差方案前馈将改变训练算法 , 特别是更新酉感知器的过程 。 数量剩余块结构 , 网络层数和跳绳的选择是否会影响整个过程更新参数 。 自更新矩阵参数是从导数的定义计算出的函数不同 。 网络结构具有不同的更新参数矩阵 。 网络结构越多样化 , 响应更新参数矩阵越复杂 。 所以这种探索是具有挑战性但有趣 。 希望我们的实验能对大家有所帮助 。