Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Traceback (most recent call last): File "<stdin>", line 1, in <module> File "/Users/DEN/pyenv/versions/anaconda3-4.1.1/lib/python3.5/site-packages/tensorflow/__init__.py", line 24, in <module> from tensorflow.python import * File "/Users/DEN/pyenv/versions/anaconda3-4.1.
昨日は統計のウソを見破る 5 つの視点として統計的誤りに関する注意点を説明しました。 本日はここであらためて、分析しようとしているデータそのものにスポットを当ててみたいと思います。 KPI (key performance indicator) とは目標を達成するために何が必要かを定量的に表す数値です。整形して美人になりたいというのは KPI ではありませんが、体重を 3 ヶ月後までに 10 キロ減らすとか鼻を 1.5 センチ高くするといったものは KPI です。 データにはどのような種類があり KPI として利用しようとしている指標はどんなデータなのか正しく理解していないとしばしば誤った KPI を導き、無意味なデータ分析へとつながる危険を孕みます。 変数とは 社会調査や医療統計など様々な分野で被調査対象者の状態を多方面から特定していきます。たとえばアンケートやカルテを想定してみましょう
線形回帰における仮定 前々回、前回 と線形回帰について説明してきました。 線形回帰における最小二乗法では Y 軸の点と点の全体的な長さの差異 (= これを、それぞれの差の二乗を取ってから加算するので二乗誤差といいます) が最小になるように、まっすぐな線 (= 1 次式の直線となる関数) を求めました。すなわち、データの集合から直線に回帰する推定をおこなったわけです。 相関係数を求める どんな 2 次元データでも線形回帰で関数を導くことはできますが、それが妥当かどうか気になります。そこで両者の相関係数を求めます。相関係数はベクトル v1, v2 からそれぞれの要素 x, y の平均を求め、次に v1, v2 の分散と共分散を求めます。コードで表現してみましょう。 def correlation(data): n = len(data) # 二次元データの長さを n に求める xm = 0.0
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Main Question can we teach computers to learn like humans do, by combining the power of memorization and generalization? Study Resources Tensorflow Tutorial Nice Qiita Post in Japanese Research Blog Visual Concept Case Study Let's say one day you wake up with an idea for
sklearn の LinearRegression クラスについての個人メモ。 LinearRegression とは 線形回帰モデルの一つ。説明変数の値から目的変数の値を予測する。 導入 import sklearn.linear_model.LinearRegression アトリビュート coef_ 回帰変数。 intercept_ 切片。 メソッド fit(x, y) 線形回帰モデルの当てはめを実行。訓練の開始。 xが対象データで、yが正解データ ※教師あり学習が前提 get_params() 推定に用いたパラメータを取得。 predict(x) モデルを使用して、xに対して予測を実行し予測値を算出する。 score(x, y) 決定係数を出力。予測値xと正解値yの相関を測る。 実践 import pandas as pd from sklearn.linear_model im
機械学習で使用することを前提として、最小二乗法についてまとめます。 ど文系のメモなので、誤りなどあったら指摘していただければ嬉しいです。 最小二乗法とは 最小二乗法(さいしょうにじょうほう、さいしょうじじょうほう;最小自乗法とも書く、英: least squares method)は、測定で得られた数値の組を、適当なモデルから想定される1次関数、対数曲線など特定の関数を用いて近似するときに、想定する関数が測定値に対してよい近似となるように、残差の二乗和を最小とするような係数を決定する方法、あるいはそのような方法によって近似を行うことである。(Wikipedia) あるデータの分散について回帰を行いたいときなどに用いる考え方。 回帰直線をはじめとし、ロッソ回帰やリッジ回帰などの根底となる概念。 数式について 数式 モデル関数を f(x) とするとき
温度付きsoftmax (softmax with temperature) いつ使うか モデルの蒸留なんかに出てくる損失関数 (多分他にも出てくるんだろうけどあまり知らない). 「ちょっと高い確率で出てきたクラスを重視して学習したい!」とか「低い確率のクラスを切り捨てずに学習したい!」ときに使われる. 数式 $$ S(y_i)=\frac{e^{\frac{y_i}{T}}}{\Sigma{e^{\frac{y_k}{T}}}} $$ 実装(Chainer) import chainer import numpy as np def softmax_with_temperature(x, temperature: float) -> chainer.Variable: return F.softmax(x / temperature) softmax_with_temperature(n
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? こんにちは,いしたーです.最近はDeNAで3次元復元関連のアルバイトをしています. 今回は3次元復元の古典的な手法であるTomasi-Kanade法[1]の解説をしていきます. コードはGitHubにあります. Tomasi-Kanade法とは 2次元の画像の集合から3次元の物体を復元する手法です. さっそくデモをお見せします. これらはある3次元の点の集合を撮影(平面に投影)したものです. これらの画像をTomasi-Kanade法で処理すると,こんなふうにもとの3次元の点群を2次元の点群のみから復元することができます. 実際に実行し
import chainer import chainer.functions as F import numpy as np hoge = np.array([i for i in range(9)]).reshape(3,3) """ array([[0, 1, 2], [3, 4, 5], [6, 7, 8]]) (3, 3) """ hogehoge = np.array([i*i for i in range(9)]).reshape(3,3) """ array([[ 0, 1, 4], [ 9, 16, 25], [36, 49, 64]]) (3, 3) """ hogehogehoge = F.hstack((hoge, hogehoge)) """ variable([[ 0 1 2 0 1 4] [ 3 4 5 9 16 25] [ 6 7 8 36 49 64]])
chainer.functions.loss.vae.gaussian_kl_divergenceの使い方メモ 引数に多変量正規分布の平均ベクトルと対数共分散行列をとり, 出力結果として 引数のパラメータをもつ多変量正規分布と多変量標準正規分布とのKL-divergenceの値を 返してくれる. VAEのコードを書く際に, 潜在分布と標準正規分布のKL-divergenceを最小化する 条件を書くと思うのでこいつを用いるとサラッとかけたりする. 下記の通り, 引数として用いる分散は対数を取ったものであることに注意. from chainer.functions.loss.vae import gaussian_kl_divergence mu = np.array([0.0, 0.0]) ln_var = np.array([[0.0, 0.0], [0.0, 0.0]]) gaussia
本稿では、Azure Batch AIを利用して、Chainer MNのMNISTのコードをGPUノードを複数並べて実行してみたいと思います。 Batch AIとは? Batch AIとは、マイクロソフト社のパブリッククラウドであるAzureの1製品で、GPUの載ったノードを並べたクラスターをオンデマンドで簡単に作成しDockerを利用してディープラーニングの学習をすぐに実行できる環境を提供する仕組みです。 *製品イメージ図 ポイント ・Nvidia社のGPU(Tesla V100, P100, P40, K80)を載せたサーバーを大量に並べたクラスターを、1行のコマンドで作成できます。 ・マルチノード時に必要なノード間の通信もAzureが自動設定。低レイテンシーなRDMAネットワークを提供するInfinibandも利用可能です。 ・価格が8割引きになる低優先度仮想マシンを利用して、通常利
Azure Batch AI - AzureでGPU/マルチノードでディープラーニング計算を簡単に行う!(Chainer MN編) https://qiita.com/YoshiakiOi/items/2f143e62bcf5d7daa8e9 に続いて、Batch AIを使っていきます。 今回はChainer MNのジョブを、AzureのInfiniband付き(もちろんGPUも!)ノードで並列実行していきます! Batch AIとは? 前項参照。 https://qiita.com/YoshiakiOi/items/2f143e62bcf5d7daa8e9 ディープラーニングの学習を、オンデマンドでたくさんGPU付きノードを並べたクラスターを作成して、簡単に並列実行できるようにする、Microsoft Azureの1製品。 今回はInfinibandを利用して、より高速に実行できる環境を
モチベーション DeepLearningの学習って結構時間がかかりますよね? (数時間とか、ヘタしたら数日とか・・・) 手元のPCで学習が回っていて常に状況を確認できるならともかく、リモートのPCで学習は回っていたり、大体時間がかかるからってどっかに出掛けてみたりするじゃないですか。 でも学習が進んでいるかどうかは定期的に知りたい。もっと言えば、エラーで途中終了しているのはすぐにでも知りたい(学習終わってるかな?って思って見てみたら止まってた・・・(泣)みたいなのは避けたい)。 そこで、Slackのpython-slackclientを使って学習結果をslackのchannelに定期的に通知する方法を紹介します。 前半は単純にpython-slackclientの簡単な使い方、後半はchainerのExtensionとしてこのSlack通知機能を実装する方法を説明します。 こんな感じを目指
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 前提と結論 会社で久しぶりに機械学習(というかディープラーニング)をやることになったので、勉強用に自宅の低スペックノートPCに開発環境を構築した時のメモ。 ネットで調べるとcuDNNのセットアップの方法とか色々書いてありますけど、普通のPCで動かすだけなら、Anaconda Navigator からGUIだけでインストールできました。 (CPU版でちょっと勉強したい人向け。本格的にやりたい人のGPU版も入りそうですけど、試せないので正しく動くかどうかはわかりません) 試した環境 Windows10 64bit (CPU: Intel C
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く