『日常に活かす数学的思考法』http://amzn.to/2BmYtvX の著者 @takey_y さんによる、数学書の読み方、数学を勉強するときのノートの作り方。数学以外の(ちょっと難しいと感じる)科目にも応用可能と思われます。こういう骨の折れる作業を怠る人、怠らない人。これが数学や物理学を好きになるかならないかの分岐点です。
togetter.com 可積分系の研究者 takey_y さんによる、数学書の読み方、数学を勉強するときのノートの作り方。数学以外の(ちょっと難しいと感じる)科目にも応用可能と思われます。こういう骨の折れる作業を怠る人、怠らない人。これが数学や物理学を好きになるかならないかの分岐点な気がします。 Tsukuba.R #7 でたまたま「パターン認識と機械学習(PRML)」のお勉強に使っているノートを広げて話す機会があって、そんなノート作ってんのと驚かれたことに驚いたのだけど、この Togetter 見て、なんか納得した。 技術者界隈では時折「写経」って言葉が使われてるけど、本当に手でノートに写している人って実は少ないのかな。まさか本に載ってるコードを打ち込むことを「写経」とは言わんよなあ……。 逆に、他の人はどうやってこの手の本を勉強しているんだろう。 以下、自分流のノートの作り方。 PR
すっかり Tsukuba.R と後先になったけど、5/8 に開催された PRML マラソン、じゃあなかった、読書会 #14 に毎度ながら のこのこ参加。 参加者各位、会場提供してくださった EC ナビさん、大変遅い時間までお疲れ様でした&ありがとうございました。 今回は 10.7 EP 法から 11.5 ハイブリッドモンテカルロまで……の予定だったが、11.4 スライスサンプリング終了時点で 21:00*1。 というわけで 11.5 は次回に繰り延べ。11.5 担当の wk さん、おつかれさまです…… そして 10.7 は担当者無しだったところを、 @ruto5 さんが資料を作ってきて説明してくれはった。大感謝。パチパチ。 10.7 EP 法は、「混合モデルに適用すると結果は良くない」&「更新が収束する保証がない」(どちらも PRML p224)と言われてしまうと、やっぱり食指が伸びないよ
今回は、4.1.7のパーセプトロンアルゴリズムを実装します。パーセプトロンは、2クラスの識別モデルで、識別関数は式(4.52)です。 パーセプトロンは、下の条件を満たすような重みベクトルwを学習します。教師信号は、クラス1のとき教師信号+1、クラス2のとき-1(0じゃない)なので注意。 上の条件をまとめるとxnが正しく分類されているときは、 を満たします。この条件はあとでプログラム中で使います。パーセプトロンは、正しく分類されているパターンに対してはペナルティ0を割り当て、誤分類されたパターンにペナルティ を割り当てます。上の式の値はxnが誤分類されたデータの場合、必ず正になるので注意。なのでパーセプトロンの誤差関数(パーセプトロン基準)は、 で与えられます。ここで、Mは誤分類されたパターンの集合です。この誤差関数は誤分類のパターンが多いほど値が大きくなるので誤差関数を最小化するようなwを
今回は、4.1.4のフィッシャーの線形判別を試してみました。これは、他の手法と少し毛色が違う感じがします。まず、D次元の入力ベクトルxを(4.20)で1次元ベクトル(スカラー)に射影します。ベクトル同士の内積なので結果はスカラーで、wはxを射影する方向を表します。 フィッシャーの線形判別は、射影後のデータの分離度をもっとも大きくするようなデータの射影方向wを見つけるという手法だそうです。 クラス1のデータ集合C1の平均ベクトルとクラス2のデータ集合C2の平均ベクトル(4.21)をw上へ射影したクラス間平均の分離度(4.22)を最大にするwを選択するのが1つめのポイントのようです。式(4.22)の左辺はスカラーです(フォントの違いがわかりにくい)。 wは単位長であるという制約のもとで(4.22)を最大化するようにラグランジュ未定乗数法で解くと、 という解が得られます(演習4.4)。これは、ベ
今回は、ロジスティック回帰です。この方法はPRMLで初めて知りましたが、統計学の方では一般的な方法のようです。回帰という名前がついてますが、実際は分類のためのモデルとのこと。ロジスティック回帰では、クラス1の事後確率が特徴ベクトルの線形関数のロジスティックシグモイド関数として書けることを利用しています。 ここで、σ(a)は式(4.59)のロジスティックシグモイド関数です。 訓練データ集合 {x_n, t_n} (今度は、クラス1のときt_n=0, クラス1のときt_n=1なので注意)からパラメータwを最尤推定で求めます。尤度関数は、 と書けるので、誤差関数(尤度関数の負の対数)は、 となります。誤差関数を最小化するようなwを求めたいってことですね。で、普通だったら今までのようにwで偏微分して0とおいてwを解析的に求めるところですが、yにロジスティックシグモイド関数が入っているせいで解析的に
< 数冊なら机の上でもいいだろう。数十冊なら枕元でもいいだろう。しかし数百冊になると本棚は必須。数千冊を超えると本棚が日用品と干渉するようになり、そして数万冊となると不動産の問題になってくるのだ。 < そうなんです。そんなだから、前々から本を裁断&スキャンして電子化(PDF 化)しようと思っていて、今年のゴールデンウィークは、本の裁断&スキャンに没頭していました。 誰だってある程度数をこなせばコツをつかむものだと思うのですが、大切な本、1冊だって失敗したくないって人のために、気をつけるべきポイントをまとめてみます。 今回はとりあえず本の「裁断」について。あんまり長くなるとアレなので、スキャンその他については次の機会にチャレンジしてみる予定です。 **(2010年5月20日、5月30日、8月29日、9月17日 追記) スキャンや PDF 圧縮、PDF リーダーについても書きました。よろしけれ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く