現実逃避ぎみにニューロの話
ノードへの入力が、結線重みがの時、ノードの出力oは下記の式ですが、シグモイド関数のαも学習させたら、α固定の場合と同じ関数近似能力を少ないノード数で実現出来ないかな、と考えています。
例えば出力層のノードの場合だと、二乗誤差をαで偏微分すると下記の様になるはずです*1。(式中のtは教師信号。)
別にα固定でも中間ノード数を無限大にすれば大抵の関数を近似出来るんでしょうけど、αを変化させる事で関数近似能力を落とさずにノード数減らせるなら、そっちの方が計算コストが下がって嬉しいな、と。
まぁ、実際に変化させると問題が出るかもしれないんで、ニューロを実装する段階になったら実験してみます。
*1:ひょっとしたら計算間違ってるかも。