物理法則を”発見”できる機械学習モデルAI Feynman

Source: Deep Learning on Medium

問題を簡単にする手段

上記の手法を用いても物理法則を見つけることができない場合があります。なぜなら、多項式を分母と分子両方にもっているなど複雑な表式になっていることが多いからです。そのため、問題設定をより簡単にした上で上記の手法を再度試していくという方法をとります。

AI Feynmanではニューラルネットを用いて問題が簡単になるかをたしかめています。下の図は万有引力の法則に並進対称性があるかを検証したときの模式図です。

学習データでパターンを学習させたモデルを用いて、検証用データ(validation data)で仮説が実証できるかを確認するという戦略です。

1. 並進対称性(Translational Symmetry)

変数に並進対称性があるかを確かめます。並進対称性とは以下のように、x_1, x_2にある定数を加えても(移動させても)、同じ値が出るか、という検証です。例えば、万有引力の法則だと、2つの物体をx軸方向に平行移動させても引力の値は変化しません。

並進対称性が確かめられると、変数x_1, x_2の絶対値ではなくx_1とx_2の相対位置が引力に寄与しているということです。つまり、新しい変数x’ ≡x_1 -x_2を導入すれば、x_1,x_2を消去できるのでより問題を簡単にできます。詳細なアルゴリズムは下記の通りです

2. 因数分解(Separability)

次は因数分解のように積で分解できる部分がないか、つまりf(x_1,x_2) = h(x_1)g(x_2)のように分解できないか、を確かめます。

ここでは、次の式が成り立つかを考えます。

この式では、x_1とx_2が分離可能ならば値はゼロになります。観測誤差を考えて、ある値以下になれば”分離可能”とします。分離できれば、yの値を求めるという問題は、y’を求める問題とy’’を求める問題の2つに分離することができます。

これにより、複雑な問題をより簡単な2つの問題に落とし込むことができます。

3. 変数を等価にする

独立している変数にそれぞれ同じ値を入れることでも、問題を簡単にすることができます。例えば、下図のガウス分布を”発見”する問題で、θとσに同じ値を入れると、指数部分とそれ以外に問題を分割するこができます。