當物理遇上人工智慧

當物理遇上人工智慧

撰文 | Piero Paialunga

翻譯 | zhenni

審校 | C&C

當物理遇上人工智慧

圖片來源於Mark K nig , Unsplas

這篇文章將從物理學的角度,從物理學到人工智慧來介紹物理資訊神經網路。

讓我們從這裡邁出第一步:

我們已知物理學中的世界是如何執行的。透過運用科學的方法可以提出假設,我們說明一個具體的現象是如何發生的,然後再設計一個可控的實驗,透過實驗資料來證實或證偽這個假設。

可以說,物理學和自然演化的程序是息息相關的,我想起在大學時一個教授用下面這句話開始自己的報告:

赫拉克里特斯說:“萬物皆動。”我對此深信不疑。但是,如何運動的呢?

而這便是物理學在試圖解答的問題。“萬物”如何“動”呢?

人們用特定的方程——為人熟知的微分方程來描述萬物運動的方式。讓我們先來試圖理解什麼是微分方程。

1

物理與微分方程

“微分”描述了一類與減法有關的東西。

1。1導數

一個函式的導數在物理學當中有著特殊的意義。

舉個例子,速度表示的是空間對於時間的導數。讓我們考慮如下實驗:一個物體沿著一根一維線條運動。

當物理遇上人工智慧

圖源:作者

也就是說這個藍色的小球正在沿x軸運動。通常,我們把初始點設定為0。當這個小球運動時,它的位置會隨著時間改變,假設這個位置隨時間變化的影象如下:

當物理遇上人工智慧

圖源:作者

於是這個運動可以被描述得更加清晰:

A。在時刻0至時刻5之間,位置從0變化至9:小球向前運動。

B。時刻5至15,位置沒有改變:小球靜止了。

C。時刻15至17,位置由9至3:小球往回運動。

D。時刻17至47位置由3至6:小球又前進了。

這個小球何時如何改變自己的位置是不是被清晰定量了呢?甚至位置變化量都很清楚。其實這便是速度的資訊,我們用下面的表示式來描述:

當物理遇上人工智慧

方程(1)

看起來好像有些複雜。但其實速度只是兩個非常相近的時刻對應的(表示式中h趨於0的極限)位置變化量除以兩個時刻的差(h),所以我們用微分方程來描述。換句話說,速度是用時間間隔歸一化後的位置瞬時變化量。

如果在某個特定時刻,位置有一個劇烈的增加,意味著其導數是非常大的正數;位置沒有改變時,導數為零;位置減小,導數為負。

在上面的例子當中,每段位置的變化是線性的,也就是說時刻段0-5、5-15、15-17、17-47間的速度各自不變。

當物理遇上人工智慧

以t=0至t=5為例,期間對於每一時刻t,位置的瞬時變化量都是9/5,其他時段亦可以用同樣的意思理解上面的函式。

1。2 數值解

上面的例子非常簡單,讓我們來考慮下面這個例子看看:

當物理遇上人工智慧

圖源:作者

這樣的軌跡就很難建模了,也沒有解析的方法去計算導數:你只能用數值的方式來計算——在所有時間點用公式(1)給出導數。順便一提,我想你已經完全準備好面對殘酷的現實:

現實世界中所有的微分方程都是用數值軟體求解的。

但數值求解可能需要執行千萬次迭代。不僅如此,還需要高階的方法來求解微分方程,像有名的龍格-庫塔(Runge-Kutta)方法,往往會集成於很複雜的軟體當中(比如用於有限元方法的POGO),這些軟體:

計算成本高

經濟成本高

需要專業知識

時間成本高(以有限元方法為例,往往花費數分鐘至數小時不等)

1。3 不適定問題

而上述的問題甚至不是最糟糕的。難過的是會出現不適定(ill-posed)的情況。下面我舉個例子。

比如要求解x和y的問題:

當物理遇上人工智慧

是不是挺簡單?

x+y=4

於是 x+2y=x+y+y=8

4+y=8

得到 y=4

x=0

方程組的解為 (x,y) = (0,4),此時這個問題是適定的。因為滿足這種條件的解是惟一的,也就是上面得到的解。

但以下問題就不一樣了:

當物理遇上人工智慧

兩個方程其實是一樣的!雖然 (x,y) = (0,4)還能作為一個解,但是(1,3)也可以,這個方程組實際上有無窮多個解。這個問題就是一個不適定問題,對於這樣一個確定的問題,具有不只一個解(實際上有無窮多個解)。

如果是求解下面這個問題:

當物理遇上人工智慧

方程(2)

這類所謂的反演問題可以用於從位移圖推匯出速度圖,而上面的這個反演問題可以用於超聲波探測中表徵材料中的一個侵蝕缺陷。即使是最完美的實驗設定(無限多個感測器),這個問題也是不適定的。換句話說就是,資訊不能夠推匯出一個唯一且可靠的速度分佈圖(v)。

2

人工智慧和神經網路

現在說說人工智慧(AI)。

這句話可以很簡單地介紹人工智慧:

人工智慧演算法不需要具體的程式就可以執行特定的任務。

自動駕駛汽車在沒有數學和明確訓練情況下,也可以在任何人走到車前時剎車,這是因為它通過了百萬人的“訓練”。

準確地說,所有人工智慧演算法都依賴於損失函式(Loss Function)。

這個特定的函式用於表示目標值(target,希望輸出的值)和演算法輸出值之間的差,需要透過最佳化來達到最小值。

假如給定一座具有特徵的房子,希望預測其花費(一個很有名的房產資料集問題)。這是一個由輸入空間至連續空間的迴歸(regression)問題。

當物理遇上人工智慧

圖源:作者

如果給出的預測價格為130k而實際價值為160k,那麼平均絕對值誤差MAE定義為:

當物理遇上人工智慧

在這個問題中為30k。

這個式子表示,我們的模型是一個命名為F的神經網路,處理輸入資料x,並輸出一個預測值y=F(x)。在上述的例子中,y=130k,而t=160k。

當物理遇上人工智慧

損失函式依賴於建立模型的一系列引數W。損失函式越低,就說明模型建立得越好。

於是,損失函式就會不斷最佳化,某種意義上降到越低越好。引數會被不斷迭代,來使損失函式降到最低(局域最小值)。

3

AI+物理=物理資訊神經網路

如果你看到這裡:

你值得一陣掌聲

你可能會有疑問:人工智慧(神經網路)和微分方程(物理)到底有什麼關係?

在回答這個問題之前,我們需要了解另一個概念——正則化(regularization)。

3。1 正則化

當物理遇上人工智慧

但會出現一個問題,可能這個解在訓練集中達到最佳,但是並不適用於測試集(過擬合),此時的最佳值只是局域最佳的。

再深入解釋一些:

當物理遇上人工智慧

如果將這個引數組合應用於測試集(一系列新資料),損失函式變得非常大。就說明損失函式的定義並不準確,其實在這個問題中,真正最優解如下:

當物理遇上人工智慧

圖源:作者

那麼如何避開紅色標記的錯誤點而得到最優點(綠色標記)呢?

當物理遇上人工智慧

圖源:作者

如果演算法只在綠色圓圈中“尋找”就好了,這樣就不會落入錯誤的紅色圈套(局域最優)了。

這就是正則化——修改損失函式使得其空間解被限制,從而更可能求解出全域性最優而非局域最優。

3。2 物理資訊神經網路 = 正則化!

還記得上面方程(2)所表示的反演問題嗎?一些學者正在嘗試求解。

初始時,在一些特定位置已知位移(u),他們希望在演算法未知區域插值u來獲得v。也就是說,給定新的t、y和x,可以獲得對應新的位移,從而獲得新的速度分佈。

當物理遇上人工智慧

圖源:https://arxiv。org/pdf/2005。03596。pdf

現在對於這個方程的解法存在許多爭議,因為這個問題不是適定的,也就是說即使人們發現了一個解,也不能確定其是否是唯一的。不僅如此,還有許多物理學限制無法求解。

他們希望透過限制位移滿足波函式方程(2)來產生位移,與損失函式結合:

當物理遇上人工智慧

這表示什麼呢?簡而言之,代表了一個正則化過程:

他們在透過限制損失函式範圍(排除不符合微分方程的解)幫助演算法找到最優解。

神經網路是如何獲得“物理資訊”的呢?透過微分方程正則化而已。

4

結論

在文末,我想說:

物理資訊神經網路不過是透過微分方程正則化損失函式的神經網路而已。

通過幾分鐘的閱讀,本文可以總結為幾個方面:

· 損失函式是什麼(第2部分)

· 正則化是什麼(3。1部分)

· 微分方程是什麼(第1部分)

· 物理資訊是什麼(3。2部分)

希望你對物理資訊神經網路有了一定的瞭解~

本文經授權轉載自微信公眾號“中科院物理所”,編輯:zhenni。

原文連結:

https://towardsdatascience。com/physics-and-artificial-intelligence-introduction-to-physics-informed-neural-networks-24548438f2d5

特 別 提 示

1。 進入『返樸』微信公眾號底部選單“精品專欄“,可查閱不同主題系列科普文章。

2。 『返樸』提供按月檢索文章功能。關注公眾號,回覆四位陣列成的年份+月份,如“1903”,可獲取2019年3月的文章索引,以此類推。

TAG: 函式神經網路微分方程位置圖源