理论物理研究所在变分自回归神经网络求解统计力学问题方面取得重要进展
如何准确地计算多粒子系统的自由能,热力学量,以及给出系统的无偏采样,是统计物理的核心问题之一。自上世纪初以来,统计物理学家建立了各种各样的理论和方法来处理此类问题,其中包括马尔科夫链蒙特卡洛,张量网络,重整化群,平均场近似及消息传递算法等等。在实际应用中,这些方法各有其优劣:MCMC擅长采样玻尔兹曼分布,然而很难计算系统的熵和自由能;张量网络方法和重整化群被广泛用于计算配分函数和自由能,但是一般只适用于格点系统;平均场近似及相关的消息传递算法可以高效地给出系统的变分自由能,然而需要在较高的温度下,或者系统拓扑结构满足平均场近似的要求。
从更广角度看,统计物理的基本问题和机器学习中的非监督学习具有天然的联系:统计物理中的玻尔兹曼分布对应于贝叶斯推断的后验概率;最小化自由能原理等价于变分推断;寻找统计物理系统的基态等价于最大似然学习等等。那么一个自然的想法是,可不可以用近年来快速发展的深度学习方法来推动统计物理的核心问题的进展?
近年来,理论物理研究所张潘研究员的课题组致力于探索统计物理与机器学习的交叉领域,并在近期取得重要进展。张潘与合作者中科院物理所王磊研究员以及北京大学本科生吴典,合作提出了一个应用于统计力学问题的计算方法---变分自回归神经网络(Variational Autoregressive Networks)。这个框架拓展了传统意义上的平均场方法,用自回归神经网络构建变分的概率分布,并通过强化学习的方法训练网络,进而可以同时计算系统的自由能上界,测量系统的能量,熵及各种热力学量,并直接无偏地对系统采样。张潘和合作者们将此方法成功地应用于伊辛模型,自旋玻璃以及统计物理反问题中。相关论文发表于Phys. Rev. Lett. 122, 080602,并被选为编辑推荐文章。
此工作得到了中科院前沿重点项目“统计物理平均场理论在统计推断与机器学习中的应用”(项目编号:QYZDB-SSW-SYS032)以及国家自然科学基金委理论物理专款“彭桓武理论物理创新研究中心”的支持。
图1:用于求解统计力学问题的变分自回归神经网络结构图示
原文链接: https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.122.080602
想进一步了解此工作,获得更多详情,可参见论文的开源代码实现https://github.com/wdphy16/stat-mech-van
和Flatiron Institute的Giuseppe Carleo在Journal Club for Condensed Matter Physics为本文撰写的评论文章:https://www.condmatjclub.org/?p=3498。