GA将?開発日記~王理のその先へ~

ネタ勢最強を目指して絶賛開発中。

2008-02-01から1ヶ月間の記事一覧

Mac OS XでCUDA

http://www.nvidia.com/object/cuda_get.html NVIDIAからいつの間にかSDKが出ていました。 これでWin・Linux・MacとメジャーどころのOSは揃った事になりますが、NVIDIAは本気で普及させるつもりの様ですね。 ところでVista用のCUDA対応ドライバはまだ出ませ…

対策その五

id:streakeagle:20080211:1202730171の続き。 その五、指し手決定の為の探索(ボーナスあり)とTD誤差計算の為の探索(ボーナス無し)を両方行う。 ただこれ、探索にかかる時間が二倍になるからなぁ。どっちも手を抜けないし、困った。 やっぱこれは無いかな…

修正完了

多分。 これで上手く行く・・・のは望み薄ですね。

バグってました

という事に昨日布団に入ってから気付いて、そのまま放置しちゃいました。あう。 とりあえずログは見てみますが、どうせダメでしょうね。

とりあえず少し修正

TD誤差計算にはボーナス付加前の評価値を使う様にしただけ。 今日は調子悪いんでこの辺で終わり。

二つ上の続き

結局駒割の評価値は変でした。 が、王将周辺の利きはそこそこまともっポイ、王将の移動範囲はちょっと変という訳の分からない結果に。 それから、「ボーナス付加後の評価値 = ボーナス付加前の評価値 + β * 評価関数全体のボーナス」という感じで、ボーナス…

GA将!!!的には、Stand Patは“何となく”気持ち悪い

http://aleag.cocolog-nifty.com/blog/2008/02/bugfeature_9888.html http://chocobo.yasuda-u.ac.jp/~nisimura/mymove/index.cgi?no=1057 http://aleag.cocolog-nifty.com/blog/2008/02/standpat_9ab2.html http://d.hatena.ne.jp/mkomiya/20080211/1202686…

ボーナス付加後の経過

終局図でのボーナスの量を表示しているのですが、昨夜の起動直後は100前後だったのが今見ると10前後に減っていました。 ここまでは意図した通り。後はパラメータがどうか、ですね。 とりあえずチョコチョコ書きたい事があるので、その後に見てみます。# flo…

上の続き

「設計上の問題点」ですが、「TD誤差 = 目標値 - ボーナス付加後の評価値」としていたのが悪いんじゃないかというのが私の予想です。 ボーナスは学習が進むにつれて小さくなっていくので、学習時点でのボーナスをあてにしてパラメータを調整していると、後々…

ボーナス付加の結果

対局数は減少する(=遅くなってる) 成駒の価値もある程度は変化するが、まだ生駒より低い 歩の価値が異様に高い(金銀と同じ位。出現頻度が高いから?) っつー感じです。 ある程度良い感触はあるものの、これで実用に耐えるかというとまだ厳しい感じ。 動…

アサーションの真偽式が間違ってた

アホか、自分。

デバッグモードで問題無さそうなので

今からパラメータにボーナス与える部分を実装します。

とりあえずパラメータの使用回数を保存する所まで完了

Parameterというクラスが既にあるんで、そこで学習時に使用した回数*1をカウント。 後はファイルにパラメータをセーブ・ロードする時にパラメータごとの学習回数も一緒に処理して、評価関数全体の学習回数も同じファイルに保存。 って書くとすんなりいったか…

MTD(f)の高速化

対局数で計算して40%ほどアップ。 まぁ、これなら良しとしますか、とりあえずは。

雪、積もってるよ

という訳で今日は部屋に引き篭もってます。 あ、すいません、ウソでした。今から引き篭もります。起きたばっかなんで。 と言うか、外に出てなんかする暇なんてねーです。開発しないとピンチなんで。

ボーナスの付加を実装完了

色々細かいトラブルがあったのでメモ&解説。 まず、「パラメータごとのボーナス」から「評価関数全体のボーナス」を計算します。 パラメータごとのボーナスは「sqrt(2.0*log(パラメータの使用回数)/評価関数全体の学習回数) * abs(特徴量)」としました。 sq…

しまった、明日はオープン戦か!

id:mkomiya:20080208:1202403797見て思い出しました。 どう考えても参加は無理っす (;´Д`)o尸~~

MTD(f)、微妙+UCB1

リリースモード・アサーションありで一晩1000局弱。静止探索を2から4に深くした影響もあるんでしょうが、思ったほど速くなってないです。 とりあえずαβとちゃんと比較しないと意味が無いんで、αβとMTD(f)を同条件で走らせてみます。 んで、UCB1の実装。以前…

続Silverthorne

http://pc.watch.impress.co.jp/docs/2008/0207/kaigai417.htm 例によって後藤氏のコラム。 すっかり忘れていましたが、Silverthorneではx86命令をμOPs*1に分解しないからパイプライン中でオペランド読込があるみたいですね。パイプラインが16段と深いのはそ…

MTD(f)の性能

まずは昨日書いたαβでの反復深化を実装。MTD(f)も反復深化ありなので、ほぼ同じ条件で比較してみました。 序盤でテストしてるとほとんど差がなかったんですが、ほぼランダムに生成した下の局面でテストするとMTD(f)はαβの約10倍の速度。 正確に書くとNPSはほ…

AMDのちょっと景気のいい話

http://blog.livedoor.jp/amd646464/archives/51147540.html 45nmプロセス移行で3.2GHzに到達するかもという話。 頑張れAMD! もっとIntelを追い詰めろ!! んでもってNehalem 3.8GHzを7万円位で出さざるを得ない状況を作ってくれ! いやマジで。Nehalemのク…

Intel Silverthorne

http://journal.mycom.co.jp/articles/2008/02/06/isscc3/index.html 概要だけですが載っていたんでリンク。多分今頃PC Watchの後藤氏がアホみたいな量の解説記事を書いている途中でしょうから、そっちに期待。 大体は噂どおりで、2-wayのスーパースカラ・イ…

う、動いた

とりあえずMTD(f)が動いて、単なるαβと同じ評価値・PVを返すところまでは来ました。 んで、肝心の性能はまだ測る段階ではないです。 ざっと調べた感じだと、αβより探索ノード数は減ってNPSが同じか少し上位にはなってるみたいです。 ただ、比較対象のαβが反…

昨日の補足

id:streakeagle:20080204:1202127283 「パラメータの使用頻度」と書いたのは「学習時にパラメータを使用した頻度」です。局面評価時の頻度ではなく。 それから、ボーナスの計算式はUCB1にこだわるつもりはなくて、別の方法もありだと思います。まぁ、十中八…

例によってバグ、ありました

えーっと・・・リーフノードの判定がスッポリ抜けていました。 処理が変とかコメントに誤字があるとかそんな可愛いもんじゃなくて、判定自体どこにもありませんでした。影も形も。 アホか>自分 修正してきます。ついでに頭の中も修正したい。

うさぴょんの育ての親さんがギャルになってる

http://chocobo.yasuda-u.ac.jp/~nisimura/mymove/index.cgi?no=1056 この勢いで「うさぴょんの育ての親2.0」とか名乗ってくれると面白いな、と思ったり思わなかったり。

NVIDIAがPhysXのAGEIAを買収

http://pc.watch.impress.co.jp/docs/2008/0205/nvidia.htm Intelに続いてNVIDIAも物理演算を手に入れましたとさ。 ただ、記事を読んでるとGeForceでPhsyXとAPI互換の物理演算を動かすのが目的みたいなんで、物理演算専用のPPUはもう出ないのかもしれません…

Intel Tukwila

http://journal.mycom.co.jp/articles/2008/02/05/isscc1/index.html 4コアになってメモコンとQPI*1を付けました。以上。 って感じで、特に興味を引くものは無し。 上記記事では信頼性重視の用途向けって書いてありますが、逆に言えばXeonの市場に食い込むの…

Sun Rock

http://pc.watch.impress.co.jp/docs/2008/0205/isscc02.htm 昨日も書いたISSCCでの発表。学会の制限からRockとは言ってないですが、ほぼ間違いなくRockでしょう。 んで、その内部構成。気になったところだけ。 16コア×2-Way SMT*1で1チップあたり32スレッド…

今年も裏街道の予感

CSA MLに選手権の締切完了のメールが来てたんで、ちょいと初戦の相手を考えてみました。 仮に K-Shogiがキャンセルしてうさぴょんが2次シード 他のチームは全員参加 とすると、GA将!!!は下から18番目。となると上から18番目のチームと当たるので・・・・ A級…