ブックマーク / sleepy-yoshi.hatenablog.com (17)

  • 究極の英語学習法、三鷹メソッドのすすめ - シリコンの谷のゾンビ

    アメリカに来て5年目になるが、ときどき「どうやって英語を勉強したの?してるの?」と聞かれることがあって、その度に「子どもに教わっている」と答えている。これは冗談ではなく事実で、実際に自分は子どもとの会話を通じて英語を訓練しており、その方法をこれから説明する「三鷹メソッド」という究極の英語学習法の枠組みで説明したいと思う。 三鷹メソッドはあらゆる言語に適用可能である "汎用的な言語学習方法論" であるが、記事では自分の経験に基づき、英語の例で説明しようと思う。 三鷹メソッドに必要なもの 三鷹メソッドに必要なものはたったふたつ。 外国(たとえばアメリカ)に住んでいること 現地の学校に通う(予定)の子ども これだけである。いやいやいや、この記事を読んでいる中でこの条件を満たす人がどれだけいるんだ、というツッコミがあるだろう。まぁ、ぜひネタ記事だと思ってどうか最後まで読んでほしい。 三鷹メソッド

    究極の英語学習法、三鷹メソッドのすすめ - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2019/03/11
  • 5年間をふりかえる(2014年〜2018年) - シリコンの谷のゾンビ

    どうやら最後にふりかえり記事を書いたのが2013年だったので、どうやら丸5年間ふりかえっていないことに気づいた。ちょうどはてなダイアリーをはてなブログに移行したことだし、5年間のふりかえりをしてみることにした。思いがけず長文になってしまったので、誰が読むんだろうと思いつつも、自分用の記録として残しておく。 2014年 人生の転機と言える年だろう。6年間務めた前職を辞めて転職、そして年末に渡米。2歳の子供がいて、妊娠していたこともあり、1年早くても1年遅くてもこの決断はしなかったように思える。前職の思い出をふりかえると、とにかくかけがえのないものを学んだ6年だった。大企業ならではの堅苦しい制度については批判の方が多いが、その経験こそアメリカ生活で大きく役に立っていると断言できる。2018年後半には同じ会社を退職した人々が某社に対して批判的なブログ記事を書いて世間を賑わせていたが、自分に関

    5年間をふりかえる(2014年〜2018年) - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2019/01/03
  • SIGIR2011読み会に参加して3.Learning to Rankを発表してきました - シリコンの谷のゾンビ

    SIGIR2011読み会に行ってきました.関東会場の筑波大学に行って発表してきました.家からドアツードアで3時間...まさかこんなにかかるとは思わなかったのですが,道中ゆっくり論文も読めて旅行みたいで楽しかったです.(帰りは疲れのせいかぐったり...) 幹事のみなさま,会場を提供してくださった皆様,発表者,参加者のみなさま,ありがとうございました. 発表プログラムはこんな感じ.なお,全資料はSIGIR2011読み会のページにアップロードされている. ============================================================== ■プログラム■ ■13:00 - 14:30 京都会場発表(6件,90分) ・1 Users I 梅(京大 ・9 Collaborative filtering I 奥(立命館大) ・10 Users II 山(京大

    SIGIR2011読み会に参加して3.Learning to Rankを発表してきました - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2016/07/29
  • LibSVMのcross validationオプションでprecision/recallを出力する - シリコンの谷のゾンビ

    SVMの定番ツールのひとつであるlibsvmにはcross validationオプション(-v) があり,ユーザが指定したFoldのcross validationを実行してくれる. 実行例 % ./svm-train -v 2 heart_scale * optimization finished, #iter = 96 nu = 0.431885 obj = -45.653900, rho = 0.152916 nSV = 70, nBSV = 49 Total nSV = 70 * optimization finished, #iter = 84 nu = 0.512665 obj = -57.742885, rho = 0.134158 nSV = 78, nBSV = 61 Total nSV = 78 Cross Validation Accuracy = 81.8519%

    LibSVMのcross validationオプションでprecision/recallを出力する - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2015/10/16
  • DataFrameをインデクスラベルではなく行番号で指定したい場合にはixではなくilocを使う方が無難 - シリコンの谷のゾンビ

    長い時間バグの原因がわからずハマって相当イライラさせられたのでメモ。これのおかげでixとilocの違いがわかった気がする。 こんなDataFrameを用意する。インデクス名が行番号と一致していない。けれどint型(ここがポイント)。DataFrameから部分的にDataFrameを取り出した場合に起こりうる状況である。 >>> d = pd.DataFrame([[1,2,3],[4,5,6], [7,8,9]], columns=['A','B','C'], index=[3,4,5]) >>> d A B C 3 1 2 3 4 4 5 6 5 7 8 9 さて、最初の2行を取り出したいなぁと思ってixを使って行指定をしてみる。 >>> d.ix[ [0,1] ] A B C 0 NaN NaN NaN 1 NaN NaN NaN >>> d.ix[ [3] ] A B C 3 1 2

    DataFrameをインデクスラベルではなく行番号で指定したい場合にはixではなくilocを使う方が無難 - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2015/05/14
  • ビッグデータ時代のサンタ狩り - ML Advent Calendar 2013 最終日 - シリコンの谷のゾンビ

    Machine Learning Advent Calendar 2013 の最終日を担当します @sleepy_yoshi です. ふだんはブログ記事をである調で書いていますが,なんとなく今日はですます調で書きます.あとクリスマスのノリで適当なことを書いているので,ネタをネタとしてとらえていただければと思います. 更新が遅くなり大変申し訳ありません.今年もサンタ狩りに参加していた結果,太平洋上空に逃げたサンタクロースを追いかけてサモアまで来てしまいました.残念ながらサンタを逃してしまったところです.というわけでこのブログ記事はサモアより更新しています.まだこちらはクリスマスです. ...というブログ記事をクリスマスに書いていたのですが,サモアでは通信環境を確保できず,日に帰国したらこんな時間になってしまいました. さてオオトリをおおせつかったわけですが,プレッシャーでお腹が痛いです.当

    ビッグデータ時代のサンタ狩り - ML Advent Calendar 2013 最終日 - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2013/12/28
  • bit vector + popcntでバイナリ素性のk-NN分類器を高速化する - シリコンの谷のゾンビ

    こんばんは @sleepy_yoshi です.Machine Learning Advent Calendar 2012 の11日目を担当します.サモア時間ではまだ12月11日なので間に合いましたね.今日はバイナリ素性ベクトルの内積計算にSSE4.2のpopcnt命令を用いて高速化することでk-NN分類器を高速化する話について書きます. このブログでは普段である調で書いていますが,今日はなんとなくですます調で書きます. k-NN (k Nearest Neighbor) 分類器はラベルを予測したい事例に対して,訓練データとして与えられたラベル付き事例集合の中からk近傍の事例のラベルを用いて予測する,という分類器です.k近傍を求めるために,訓練データに含まれる事例全てに対する類似度を計算する必要があります.類似度には様々な尺度が利用されますが,ここでは内積とします.そのためk個の近傍を発見す

    bit vector + popcntでバイナリ素性のk-NN分類器を高速化する - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2012/12/12
  • シェルスクリプトは文字通りの逐次実行 - シリコンの谷のゾンビ

    知り合いに気になったことを指摘された. 「シェルスクリプトは実行中にスクリプトを変更すると,変更されたスクリプト通りに動く」というものである. んなことあるかい,スクリプトは実行時にメモリに読み込まれるんでい!と思い込んでいたので,早速調べてみた. 同時作業をするので複数端末を立ち上げるか,screenを使うか,emacsのshellモードを使う. 以下のようなスクリプトを書く. # test.sh echo "start" sleep 5 echo "1" sleep 5 echo "2" sleep 5 echo "3" sleep 5 echo "4" echo "done" 実行する. % sh test.sh startすかさず上記コードの最後の行をコメントアウト # test.sh echo "start" sleep 5 echo "1" sleep 5 echo "2" s

    シェルスクリプトは文字通りの逐次実行 - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2012/12/09
  • 18 Matrix decomposition and latent semantic indexing (pp.369-384) - シリコンの谷のゾンビ

    ちょっと飛ばして,先にIIR18章を読んでみた.単語文書行列を特異値分解して新しい空間でベクトル空間モデルを使うというLSIの話. ページ数が少なかったので,魔が差して翻訳もしてみた.さらに数式が多いのでTeXで書いてみた.ここまで来たらこだわろうとAB型の悪い癖が出て,数式や演習も全部訳してみた.ついカッとなってやってしまった.今は公開している.でも反省はしていない.まだやっつけの部分があるのでこつこつとバージョンアップしてきます. Introduction to information retrieval: 18 Matrix decomposition and latent semantic indexing(和訳) 大体1ページ1時間.こつこつ夜なべをして3日間くらいかかりました.否が応でも精読するので,とても理解が深まりました.じっくり読むのも翻訳作業もとても楽しかったので,なん

    18 Matrix decomposition and latent semantic indexing (pp.369-384) - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2012/08/11
  • PRML復々習レーン#3に参加して発表しました - シリコンの谷のゾンビ

    PRML復々習レーン#3に参加して発表しました.会場係と会場を提供してくださった@showyouさんとDeNAさんに感謝申し上げます.毎度ながら素晴らしい会場,そして素晴らしい景色. 今回から新しい試みで前回の復習内容をまとめてみることにしてみた.いちsubsectionを1枚程度にまとめて,「よーするに」というポイントをまとめてみたもの.資料をまとめて喋ってみてはじめて気が付くことがあったので次回もぜひやってみたい. 発表資料は以下のとおり 前回までのあらすじ PRML復々習レーン#3 前回までのあらすじ View more presentations from sleepy_yoshi 3.1.3-3.1.5 (代打) PRML復々習レーン#3 3.1.3-3.1.5 View more presentations from sleepy_yoshi 日程の都合で今回参加できない方の代

    PRML復々習レーン#3に参加して発表しました - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2012/07/18
  • SVM実践ガイド (A Practical Guide to Support Vector Classification) - シリコンの谷のゾンビ

    SVMツールで有名なLIBSVMの作者らがまとめた "A Practical Guide to Support Vector Classification" という良資料[1]の日語解説資料をまとめてみたので公開. SVM実践ガイド (A Practical Guide to Support Vector Classification) View more presentations from sleepy_yoshi 元資料はこちら 資料作成のきっかけは,まわりの人に「SVMとかいう手法使ったんだけど,機械学習よくわからなくてさ」という感じで相談を受けて「カーネルは何使ってるの?」「素性のスケーリングはした?」「Cパラメータは調整した?」というようなことを聞くのだけれど,「???」というやりとりにうんざりしたから. その都度,Cパラメータというものがありまして〜,カーネルというものが

    SVM実践ガイド (A Practical Guide to Support Vector Classification) - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2012/06/24
  • PRML復々習レーン#2に参加・発表してきました - シリコンの谷のゾンビ

    PRML復々習レーン#2に参加して発表してきました.参加者のみなさまおつかれさまでした&ありがとうございました.会場提供をしてくださったDeNAさんと会場係の@showyouさんに感謝申し上げます.今回から司会進行をやらせていただくことになったものの,初回から遅刻というご迷惑をかけてしまいました.代打司会と幹事の@naoya_tさんに謝罪と御礼申し上げます.申し訳ありません... 自分の発表資料をupしました. PRML復々習レーン#2 2.3.6 - 2.3.7 View more presentations from sleepy_yoshi 今回は2.3ガウス分布から2.4.1まで.自分は以下の2つのサブセクションを担当.当初想定していたよりも演習問題が多くて相当苦労.いくつかの問題はサボってしまった (後日フォロー予定...) 2.3.6 ガウス分布に対するベイズ推論 2.3.7

    PRML復々習レーン#2に参加・発表してきました - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2012/06/18
  • 大きなデータをソートする - merge sort by sort - シリコンの谷のゾンビ

    諸事情により,メモリに入りきらない大きなデータをソートする必要が出てきた. 当然勉強したばかりのマージソートを実装しようと思ったのだが,思いのほか面倒くさそうなので,既存のUnixコマンドにはマージソートが実装されていないのかを調べてみた. ・・・当然ながらあった. 実装する前に気がついてよかった. 覚えておくと便利なオプション -S 使用メモリ容量の上限を設定 e.g., sort -S 500M -m ソート済みのファイルマージするオプション e.g., sort -m hoge1.sorted hoge2.sorted hoge3.sored > hoge.sorted -T 一時ファイルの保存先を変更する e.g., sort -T ./ -n 数値として比較 -r 逆順でソート(数値の場合,降順) これらの知識を総動員して実行してみる. > sort -S 500M *.sort

    大きなデータをソートする - merge sort by sort - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2012/03/19
  • 情報検索ことはじめ(3): 情報検索 (IR) 分野の国際会議と論文誌 - シリコンの谷のゾンビ

    どの会議や雑誌に投稿すべきかの情報を共有するのは素晴らしい - 発声練習を読んで,そういやIR系のカンファレンスまとめを見たことがないなぁ,と思ったのでIR系の研究を取り扱っているまとめてみることにしました.とはいうものの,自分が通ったことないので,偉そうに語っている部分は全て又聞き情報と妄想によるです. 長らく書いていなかったので,「情報検索ことはじめ」シリーズにしてみました.今回が第3弾です. 過去の情報検索ことはじめシリーズ 情報検索ことはじめ〜研究者編〜 - 睡眠不足?! 情報検索ことはじめ〜教科書編〜 - 睡眠不足?! 何が情報検索 (IR; information retrieval) なの? と言われると明確な定義を説明することができません.愛するIIRから引用します. Information retrieval (IR) is finding material (usual

    情報検索ことはじめ(3): 情報検索 (IR) 分野の国際会議と論文誌 - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2012/02/22
  • TokyoNLP#7で「きれいなジャイアンのカカカカ☆カーネル法入門-C++」を発表しました - シリコンの谷のゾンビ

    TokyoNLP#7に参加して,「きれいなジャイアンのカカカカ☆カーネル法入門-C++」を発表してきました. 幹事の @nokuno さんをはじめ,他の発表者の方々や懇親会の買い出しをしてくださったみなさま,参加者のみなさま,そしてなにより会場を提供してくださったECナビさんと@ajiyoshiさんに改めて感謝申し上げます. 大分時間が空いてしまったけれど一応前回からの続き. TokyoNLP#5で「パーセプトロンで楽しい仲間がぽぽぽぽ〜ん」を発表しました 発表資料を公開します.一部修正してあります. TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++ View more presentations from sleepy_yoshi 発表のポイントは以下のあたり. 入力とデータ点 (サポートベクタ) との類似度 (カーネル) の重みづけ和でモデルを表現している!

    TokyoNLP#7で「きれいなジャイアンのカカカカ☆カーネル法入門-C++」を発表しました - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2011/09/12
  • 1/nの確率で観測できる事象をn回試行すると1度でも観測できる確率は□以上 - シリコンの谷のゾンビ

    トリビアの種風なタイトルにしてみた.タイトルの答えは後半で述べる. ことの発端は,「17の倍数であるナンバープレートを見つけるためには,車を何台観測しなければないか」というような雑談がきっかけ.こういう日常的な算数ができるとかっこいいなぁと思ったので,ちょっと考えてみた. 現在は希望ナンバーがあるため,ナンバーの分布には偏りがあるものの,ナンバーは一様分布していると仮定する. すると,17の倍数はおおよそ1/17の確率で見つけることができる.ここで各観測はベルヌーイ試行と捉えることができるため,確率や統計の初歩的な知識でなんとかできそうな気がする. たとえば,5回目に "初めて" 17の倍数を見つける確率は,4回17の倍数以外 (=16/17) の事象を観測し,5回目に1/17の事象を観測したと考えることができ, で求めることができる. さて,これを一般化すると,確率pで起きる事象をk回目

    1/nの確率で観測できる事象をn回試行すると1度でも観測できる確率は□以上 - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2011/04/11
  • 昨晩お世話になったオイラーの定理(仮称)を証明してみる - シリコンの谷のゾンビ

    昨晩のエントリ 1/nの確率で観測できる事象をn回試行すると1度でも観測できる確率は□以上 - 睡眠不足?! で使ったオイラーの定理(仮称)*1について,道具として使ってもいいけれど,どうせなら使っている道具について調べてみたい.ということで,無謀にも,これの証明に挑戦してみる. オイラーの定理(仮称)は,以下のとおり. ただし, かつ ... (1) 僕の手持ちの道具は少ない.expが出てきたらとにかく対数を取れ,という教えに従い,両辺の対数を取ってみる.対数は単調増加関数なので,底が0であれば,X < Yのとき log(X) < log(Y).今回はeを消したいので,自然対数を取る. 左辺のxを移項する. お.という項が出てきた! なんだか解けそうな気配がする. とりあえず,ここで気持ちを落ち着ける.とおけば,あとは ... (2) を示せればよい.なんだか成り立ちそうな気がするし,頑

    昨晩お世話になったオイラーの定理(仮称)を証明してみる - シリコンの谷のゾンビ
    yag_ays
    yag_ays 2011/04/11
  • 1