データ前処理
ミズハノメから持ってきたデータは1ヶ月ごとなので、 しゃらくせえので全部合体する。 そのときに(左端)ゴミを消してset_index("dataid")としておく。 またjoinで出走、直前、オッズを結合します。 そうするとなぜかリザルトのrowとずれがあるので index…
一応畳み込みできたけど6*6ぐらいじゃあんまり効果ないな、 場、モーター、選手の3チャンネルで試してもいいが表現力が足りなそうなので別の方法を考えよう。 真面目にカテゴリカル・データを処理しつつ今持ってるデータを一度全部ぶっこんでみることにした…
あまりにもランダムの壁すら超えない、 というかまあ見た目の問題で超えてはいる。 左から123,124,125,126,132,134なので 予想がイン寄りに傾ければ自ずとACCも上がるのだ。 しかしきれいに落ちていくかというとそうでもなく多くの12より132のほうが強いとい…
取れたには取れたが当地勝率と実際問題かぶっていて、 これを入れるのはどうかという考えが出てきたのでスルーしておく。 年齢・体重まできたので平均STと全国と当地の勝率二連率三連率。 そしてモーターとボート、チルト。 FとLは一回入れずに回してみる。 …
ようやくだらだら取得していたレコードが18万を超え、 そろそろビッグデータの扱いについて考えないといけない。 いちばん大事なのって実用性だと思う、 ということで一回.read_sqlで全部取得してみてどれくらいかかるか見てみる。 2分ぐらいで終わるわ、す…
ゴミを入れたらゴミができる。 と言われてもなにがいるもんで何が捨てるもんかわかんねーよ状態。 無駄に悩んでみたもののよくわからないので関係ありそうなものをちょっとずつ試す。 年齢、rank(A1とか)、全国勝率、場ごとの枠の勝率、モーター勝率、ボート…