タグ

ブックマーク / nykergoto.hatenablog.jp (7)

  • pythonで実行時間を測定しつつ時間も取得したい - nykergoto’s blog

    実行時間を測定するには? KaggleMasterのアライさん著・Kaggleコード遺産でおなじみ timer を使うのが便利です! いつもお世話になってます😊 Kaggleコード遺産 - Qiita from contextlib import contextmanager from time import time # https://qiita.com/kaggle_master-arai-san/items/d59b2fb7142ec7e270a5#timer をちょっといじったやつ @contextmanager def timer(logger=None, format_str='{:.3f}[s]', prefix=None, suffix=None): if prefix: format_str = str(prefix) + format_str if suffix:

    pythonで実行時間を測定しつつ時間も取得したい - nykergoto’s blog
  • 機械学習なdockerfileを書くときに気をつけとくと良いこと - nykergoto’s blog

    みなさん機械学習系の環境構築はどうやってますか? 僕は最近は Docker を使った管理を行っています。 特に師匠も居なかったので、ぐぐったり人のイメージを見たり手探りで docker をつかいつかいしている中で、最初からやっとけばよかったなーということがいくつかあるのでメモとして残しておきます。 大きく2つです。 キャッシュは消す テストを書く キャッシュは消す ライブラリをいろいろと install すると大抵の場合ダウンロードしたファイルを保存されている場合が多いです。何かのタイミングで再びそのライブラリをインストールする際にはダウンロードしたファイルを使って、素早くインストールすることができます (この仕組みがキャッシュです)。 キャッシュがあると容量が重くなるという欠点があります。重たいイメージは pull に単に時間がかかりますから、システムとしてデプロイする時にトラフィックが

    機械学習なdockerfileを書くときに気をつけとくと良いこと - nykergoto’s blog
  • NGBoostを読んで、実装する。 - nykergoto’s blog

    不確実性を考慮した予測が可能と噂の NGBoost の論文を読んでみたので、全体のながれをまとめて見ました。加えて自分でも NGBoost を実装して、その結果を載せています。 元の論文 NGBoost: Natural Gradient Boosting for Probabilistic Prediction はこちら https://arxiv.org/abs/1910.03225。 Introduction 一般的な教師あり学習を考えます。このとき予測モデルは入力データ $X$ に対して予測値 $y$ を出力するように学習していきますが、たいていのモデルではひとつのデータに対しては予測値はひとつしか得ることができません。 例えばウェブ上の行動履歴から、ユーザーの年齢を予測してください、という問題があったとすると、ユーザーの期待される年齢そのものを返すようなモデルがそれに当たります。

    NGBoostを読んで、実装する。 - nykergoto’s blog
  • Kaggleで勝つデータ分析の技術: 今までの機械学習本と全く違う最強の実務本 - nykergoto’s blog

    この度光栄なことに著者の @Maxwell さんから「Kaggleで勝つデータ分析技術」 を献いただきました。 私事ですがこのような形で献頂いたのは初めての経験だったのでとてもうれしくまた恐縮している次第です。 光栄なことに @Maxwell_110 さんからKaggleで勝つデータ分析技術を頂きました〜 目次の充実が話題になってましたがサラッと見ただけでも濃い内容満載で読むのワクワクです😆 https://t.co/VTKmsR5Z6s pic.twitter.com/yuRS72YyTs— ニューヨーカーGOTO (@nyker_goto) October 2, 2019 「せっかくを頂いたので書評をかこう!!」と思ってここ数日読み進めていたのですが、このが自分がここ一年ぐらいで読んだ機械学習に関連するの中でもずば抜けて内容が濃くまた情報量の多いであったため「これは僕

    Kaggleで勝つデータ分析の技術: 今までの機械学習本と全く違う最強の実務本 - nykergoto’s blog
  • RAdam: Adam の学習係数の分散を考えたOptimizerの論文紹介 - nykergoto’s blog

    表題の通り噂の最適化手法 RAdam の論文 On the Variance of the Adaptive Learning Rate and Beyond を読んだので, そのまとめです!! 概要 一言でいうと「今までヒューリスティックに行っていた Adam 学習開始時の LR 調整を自動化できるような枠組みをつくったよ」ということになると思います. 考える問題 この論文で, 考えていくのは機械学習のように多数のデータから成る目的関数を最小化するような問題です. 特にニューラルネットワークの学習では勾配法, 特に SGD (確率的勾配降下法) と呼ばれる方法を用いることが一般的です. SGD には様々な adaptive バリエーションがあります.この adaptive とは問題の特性を生かして, SGD を早くするような工夫を指しています. 一般的な形式 一般的な adaptive

    RAdam: Adam の学習係数の分散を考えたOptimizerの論文紹介 - nykergoto’s blog
  • 機械学習のための環境構築とその管理 - nykergoto’s blog

    機械学習プロジェクトでは python を始めとした言語 + それに付随したライブラリを使います。 僕も python 触りたての頃はローカルマシン上にひとつ python 環境を作り、必要なライブラリをインストールして使っていました。環境の分離ということはあまり意識しておらず、やったとしてもプロジェクトごとに anaconda や pyenv, venv などで個別環境を作って切り分けるレベルでした。 しかし上記の方法だと困ったことが起ることがあります。例えば… global な環境が壊れてしまってすべて壊れる。 これは各環境が global な環境に依存しているために起こります。 python 以外の変更で環境は突如として壊れます。例えば brew install hoge したら Mecab が使えなくなっちゃったとかはあるあるだと思います >_< linux / Mac / Win

    機械学習のための環境構築とその管理 - nykergoto’s blog
  • 本のクラスタリングをやってみよう - 吾輩は猫であるに近い本は何なのか - nykergoto’s blog

    最近理論よりなことばかりやっていたので今回は実際のデータを使った解析をやってみます。 今回使うデータは、読書メーターからクロールさせてもらって作成した、ユーザーに紐付いた読書履歴のデータです。ユーザーごとに [だれの, どんな] を読んだかがわかるようなデータになっています。一例は以下のような感じです。 アガサ・クリスティー おづ まりこ トマス・H・クック ムア・ラファティ 川口俊和 ジョナサン・オージエ 村田 沙耶香 岡崎 琢磨 米澤 穂信 ピエール・ルメートル 金内 朋子 この人はミステリーが好きなのかもしれませんね。 先の例は作者でしたが、これと同じようにのタイトルも取得しています。 取得したの数(累積)は 100万冊, ユーザー数は 2500 と気づいたら案外大きいデータセットになっていました。 このうち今回はのタイトルのデータを使って、のクラスタリングをやってみたいと

    本のクラスタリングをやってみよう - 吾輩は猫であるに近い本は何なのか - nykergoto’s blog
  • 1