色々あって探索ルーチンの改良に着手する事にした
WCSC21の一丸さん(ツツカナの開発者)のアピール文書を読んで、ツツカナの新手法だとαβ+LMRに対して勝率75%、Rは+190*1ってのを見て、これはやらねば! と。
つー事で情報収集。枝刈りとか探索の延長・短縮関連の学習について覚えてる範囲で列挙。
- 「棋理」の佐藤さんがされてたと思うのですが、ブログでは発見出来ず。 http://d.hatena.ne.jp/yos92/
- 「Blunder」の下山さんも同上。ただ、ムーブオーダリングの学習は見つかった。 http://hp.vector.co.jp/authors/VA039571/blunder/Blunder-20090507.pdf
- 「ツツカナ」の一丸さんのアピール文書。 http://www.computer-shogi.org/wcsc21/appeal/tsutsukana/WCSC21_tsutsukana_20110327.pdf
- 「PG行動期待値法」。 http://gasyou.is-mine.net/archive/IPSJ-GI13030006.pdf
まずはツツカナの手法をパクって参考にして実装し、その後*2に改良する予定。