首先,量子研究,最重要的應用是量子計算機,這種計算機的運算能力是傳統計算機的幾百倍甚至上千倍,理論上來說,量子計算機的計算潛力遠遠超越當前的超級計算機,這也是谷歌阿里和中科院不斷投入巨資對其研究的原因,誰掌握了下一代計算機,誰就掌握了下一代信息技術。

神經網路提出於上世紀50年代,通過模擬人類的神經元進行學習,是當時認為人工智慧的一種實現方式,但實際上,神經網路本身的能力十分有限,不足以對學術界工程界產生影響,真正被投入人工智慧研究的是:深度置信網路,就是現在十分流行的深度學習技術,深度學習,是一種多層的神經網路,並且加入了大量的激活函數,並配合卷積層、池化層等等,達到了很強的學習能力。

那麼,深度學習可以用來解決量子力學中的問題嗎?

深度學習之所以厲害,就是依賴於兩個方面,第一,數據量大,第二,算力高。當前的算力是比較強的這一條件已經滿足,而量子力學的研究中我們沒有數據的積累,或者比較缺乏,需要積累,這是題主問題的主要瓶頸,但是隨著時間的積累,題主的設想一定會隨著數據量的增大而被實現的。


是不是看過那篇用深度學習解薛定諤方程的文章啦?

雖然原文沒看過,不過剛好最近在搞有點類似的東西。算不上高度複雜,但可以稍微聊聊。

首先把函數看做向量會比較方便。比如定義在0到1的函數f(x)可以用一個100維向量近似的表示為(f(0),f(0.01),f(0.02),…),實際上只要分得足夠細,就能近似的表示原來的函數了。

這樣的話,不管是薛定諤方程也好,還是最近我工作中遇到的Wilson狄拉克方程也好,(對於不太了解這一行的朋友解釋下,狄拉克方程就是費米子在狹義相對論下的薛定諤方程,而Wilson狄拉克方程是格點模擬版本的狄拉克方程)最後都成為了矩陣方程。

b=Ax,已知矩陣A和b求x。

這個方程可以用一套演算法最小化|b-Ax|來求解。

再說說神經網路,我們把輸入層,輸出層都看作是向量,它實際上也是一個y=Ba,小寫字母向量,大寫字母矩陣。當然它要更複雜一些,更嚴謹的說y=g(a),其中,g是一個依賴於神經元的函數。

比如我們有一套已知的,方程的解,x1,x2,...和b1,b2,…對應。拿來訓練網路,使得神經元調整到|x-g(b)|最小化,那麼g就是A的逆的一個比較好的擬合了。

這個網路就可以拿來解方程b=Ax。

我沒看過原文,不過我猜可能是類似的吧,這個訓練好的網路如果能很快速度解出結果,將是很有用的。比如在格點模擬中,能比比如 BiCGStab,GMRES之類常用的解法更快解出Wilson Dirac方程,那就比較贊了。

這只是舉個和薛定諤方程有關的例子,如果不要限定量子力學而是各種物理問題,神經網路的用處很多。比如使用GAN來生成模擬實驗(沒錯,就是教AI怎麼編實驗數據,訓練到人都分不出來是編的還是真實數據為止)。比如用AI來識別一些東西,在大量的碰撞數據中作粒子種類的識別之類。

反過來實際上物理學的研究也在促進AI的研究,比如玻爾茲曼機,頓悟和相變的關係等等。

這是個快速發展的領域,我只能稍微聊聊,這些只是冰山的一角,希望能夠拋磚引玉。


推薦閱讀:
相关文章