99ln(99/e)

人生のログ(にしたい)。本のメモや感想を中心に。

DB反省会

というわけで今日のDBですね。午後Iで即死って感じでしたね。

 

ざっと3つ反省点。

1.高度舐めプはあかん

2.テキストへの過信

3.タイムスケジューリング

 

以下各項目のもう少し詳細。

1はですね。AP/FEが舐めプで余裕だったからと自分をアホなくせに過信してたのがいけないですね。同格扱いのSCに他の人が難なく合格してたのもありますか。分相応にちゃんとせなあかんですよ。

 

2は自分で過去問も見ずに、評判が良かったからと、割と古めの年度前提(だと後で知る)テキストばかりやっていたことですね。まず過去問見て傾向把握することが必要ですね。

 

3はまあ。社畜って定時帰りでも精々朝0〜1 h、夜 0〜2 (3いけるか?) h程度しか時間取れないんですね。1と相まってお勉強開始が4/2からだったのもあり。以前ほどまとまった時間を取れないのは今後念頭に置かないといけないと思いましたまる。

 

秋と来春は何かしらを何とかしたいですね。午前1免除権継続と手当欲しいでござるよ。

今日の卒業式行きたくない

 

将棋AIで学ぶディープラーニング

将棋AIで学ぶディープラーニング

 

 この本最近買ったんですけど、MacBook(2017)で試しにやっててエンジンの登録で詰まったのでどう対応したか一応書いておきます。

MacだとGUIが将棋ぶらうざQ一択になると思うんで(monoで動くよ系は実際動かせた試しがないし)、まかーの人に役に立てばいいなあという建前で、もっといい方法があったら教えてください。

 

でエンジン登録、本の.batを.commandに換えて@echo off消すだけやんと思ったんですが、どうも元々入ってるほうのpythonを呼び出してしまうっぽい。

(ターミナルだとちゃんと動くのでぶらうざQの問題?pyenvなのが悪い?)

 

それでpyenvのpython3のシンボリックリンクをusr/bin/に貼ってcommandファイルにそのshebangを書いた。それでいけるやろと思ったんですが、numpyのチェックのときにUnicodeDecodeErrorが出てきて死んだ。

面倒だったのでconfigparser.pyのRawConfigParserクラス内のread関数の引数encoding のNoneをutf-8に書き換えた。

そしたら無事できた。

 

おわり

 

余談

GPU使えないので本だと4秒で済んでるところに4分くらいかかったりしてウケる。まあそれでも遊べるけど計算資源はほしいですね。

 

 

2018年

2018年のやっていきをですね、表明しておこうと思いました。

大凡この手の抱負は気合入れて書くと達成できないと相場が決まっているのでギリギリ何とかなりそうなレベルで留めておくのが脳にいいとされています。嘘です。脳にいいって何だ。

・人生

死なない

・院

卒業する

・労働

嫌になるまでは辞めない

・中華

中華鍋使いになる

・イタリアン

食べに行く

・勉強

やりたいことをやる

・資格

DB,NW,統計検定あと何か

・ワイン

飲む

・日本酒

飲む

・睡眠の質

上げる

 

おわり

 

 

近況6/5

・活が終わった

まだ弾が残っていたから終わらせたのほうが正しいか。

最初考えていたところからすればランク落ち(行列の話ではない)も甚だしいけど、これ以上続けるのは限界だし、勤務地とか勤務地とか諸々の制約条件を満たしているのでここでいいや、という感じで。

大満足ではないけどそれなりに満足して納得はしている感じ。

 

・将棋

おれたちは雰囲気で右玉を指している。あまり勝てない。けど楽しいっちゃ楽しい。

活終わりかけくらいにぼちぼち再開した。たぶん本を読んだり、終わった対局を真面目に検討するべきなのと、詰将棋習慣を復活させないといけないんだと思う。

 

・やることがねえ

活があれだったので何とか試験を受ける必要もなくなり、あとは適当に単位取って適当に修論書くだけなので時間の余裕ができたものの、とりわけやりたいことがない。どうしよう。

 

ボドゲ

ラー、メディチマラケシュ、ごきポ、コヨーテなどの超軽量〜中量くらいのゲームが(おかげさまで)増えた。これでクニツィア3大競りゲー(ラー、メディチ、モダンアート)が揃ったので各位やりましょう。

ところで二人〜四人ゲーって大概二人でやると微妙なんだよな。

AP受かったっぽい

2016年秋の応用情報技術者試験うかったっぽいので早速。合格証書はまだ先なので一応ぽい。

そもそも如何に適当なスタイルで受かったかどうかを書くためだけに受けたので証書も届いてないうちにノリノリで書いておくわけですね。だので当然役に立つ記事ではないです。

 

本来は成績も見れるんですが、受験票を捨ててしまってパスワードを請求しないといけなくて面倒くさいから分かりません。受験番号は電話で問い合わせました。

 

・バックグラウンド

学部は非情報系でアナログな感じの工学部でした。いまはインチキ情報系。インチキというのは名称の上では情報と付くけどとくにそういうことはやらないという意味。気持ちの上での本業は統計学寄りのこと(そうか?)

Pythonくらいは書くけど数値計算とか数値実験とかしかやらないので(しかもお作法が身についていない)APには全く役に立たなかったです。

というわけで予備知識はほぼ無かったです。

 

・やったこと

試験前の1週間前までペルソナ5のせいで忙しくて何もしてなかったです。その後の1週間でこれを電車移動の間とかにとにかく周回。*1

 ですが前日か前々日くらいに過去問道場がとても便利になっていることを知って、そのあとはこっち。

www.ap-siken.com

今後受ける人は古い年度も含めてとにかく道場周回すればいいんじゃないかと思います。よくわかりませんが。

 

午後は経営戦略とアルゴリズムと組込みとシステム監査を選択しました。

午後は国語の問題でしょwと舐め腐っていたので過去問を解くことさえしてないくらいに全く何もやってないです。今回は簡単だったので困らなかったけども常識的に考えて過去問くらいはやるべきだと思います。

 

合格教本もありましたが、結局広く浅く書かれていて読み物として面白くないので全く活用できてないです。

 

・感想

勉強中は何だこのつまんねー試験はとか思ってたんですが、受かったことが分かるとまあ嬉しいもんですね*2

 

*1:若干盛っている。正確には申込み直後はやってた

*2:まあろくすっぽ……

『データ解析のための統計モデリング入門』3章と6章覚え書き

Pythonでやってみた系のあれ。結局pandasとかstatsmodelsとか初めて触れるんだからRで書いてある通りに実行したほうがいいのでは?とかQiitaに書けとかQiitaにすでに記事いくつかあるじゃんとかは気にしない気にしない。

続きを読む

『情報量基準』

 

情報量規準 (シリーズ・予測と発見の科学)

情報量規準 (シリーズ・予測と発見の科学)

 

 いい本です。借りて読んだけれどそのうち買おう。

 

1章:統計的モデリングの考え方

「統計的モデリングの目的は、現在のデータを忠実に記述することや「真の分布」を推定することにあるのではなく、将来得られるデータをできるだけ精確に予測すること」と赤池の指摘が要約されている。過学習を避けて汎化能力を上げることは大事。で、その汎化能力をカルバック・ライブラ情報量で評価するというのが情報量基準の基本の考え方っぽい。

ちなみに正則化項を付与する推定方法を純然な統計学の本で初めて見た(勉強不足なだけでは)。

 

2章:統計的モデル

分布関数とはや種々の分布や回帰モデルの紹介から始まる。スプラインでのフィッティングってそんなことやってたんだと素朴に思った。時系列分析も空間モデルもまあ結局変数が違うだけでただの条件付き分布なんだよな。あと制御っぽい講義でやってる状態空間モデルがここでも出てくるのかとか、空間モデルの話は面白そうというかまんま多体問題やんけとか。

 

3章:情報量基準

KLdは平均対数尤度の差に分解できるから分布間の近さのようなものの尺度に丁度よくて、経験分布関数の対数尤度もサンプル無限大の極限で平均対数尤度に確率収束するから、最尤法で対数尤度が出てくるのは自然。関係ないけど最尤法は入門書だとだいたい対数を取らないと計算が面倒くさいからだとか書いてある印象がある。対数尤度はフィッシャー情報量(行列)も対数尤度関数の微分の期待値の2乗だから(というかKLdの近似値なんだな)大事な量だしさらに言えばexp(-βH)が念頭にあれば自然というか。

あとニュートンラフソン法などの紹介中心極限定理とかやったところで満を持しての情報量基準。比較の尺度としての最大対数尤度は、バイアスの大きさがパラメータの次元によって異なってよくないからパラメータの次元に応じたペナルティが必要。

 情報量基準の一般形は-2(統計モデルの対数尤度−バイアスの推定量)で、バイアスの推定量次第でTICやAICが導ける。とくに統計モデルのパラメータ空間の中に真の分布が含まれていると仮定すれば、漸近的にバイアスの推定量がモデルの自由度になっていて、これがAIC。あとは具体例。

 

4章:統計的汎関数

要約になっていない要約がダルくなってきたので割愛というかここはむつかしくて分かってない。統計的汎関数を定義して何やかんやすると一般化情報量基準を導出できて、このGICが正則化法や非線形モデルでの情報量基準として使えるっぽい。 

5章:ブートストラップ情報量基準

経験分布関数を使って何度も復元抽出を行うのがブートストラップ法という認識しかなかった。いや信頼区間を構成できたり何か色々都合がいいらしいくらいまでは聞いてたような。ブートストラップ法を用いるとブートストラップ法を使ったときのバイアスの推定量の形に当然なるので情報量基準もブートストラップ法専用のが必要っぽい

 

6章:ベイズ型情報量基準

ラプラス近似の導出が丁寧に載っていて助かる。BIC,MDLはともかくGBIC,ABIC,PICと出てきて少しだるくなる。BICはあくまで最尤法によって推定されたモデルの評価基準で、データ数が十分大のもとで事後確率をラプラス近似したものだから正則化法には使えないので拡張していく流れ。最小符号語長がBICと同じになるのは面白い。

 

7章:様々なモデル評価基準

クロスバリデーションとかMallow's C_pとかその辺。Mallow's C_pはAICの特殊な場合という認識しかなかったな。