慣性項の追加
今日はあまり時間が無いのでサクっと出来る事をやりました。
ニューラルネットワークを真似て慣性項を追加。目的は局所最適解の回避と学習の高速化です。
要するに、今までは重みWiを Wi = Wi + d って形で、適当に計算した修正量dずつ修正していたのですが、直前の修正時のdを覚えておいて、Wi = Wi + d + α * d_old って感じで修正する様にしました。
多分、物が坂を落ちる時の慣性と似てるからこういう名前なんでしょうね。
あ、αは0より大きく1より小さい値で、今回は0.8にしました。この値、適当です。
ついでに学習率も二桁ほど小さくしてみて、慣性項の有り無しでどの程度学習結果に差が出るか調べてみます。