マンションポエム。それはマンション広告にちりばめられた詩的キャッチコピー。 折り込みチラシや、駅や電車内の広告などでよく見かけると思う。「洗練の高台に、上質がそびえる」(「プラウドタワー白金台」野村不動産より)といったあの名調子のことだ。 このマンションポエム観察をライフワークにしているぼく。今回はさらに踏み込んだ分析をしてみよう。
はじめに ここでは、機械学習、ディープラーニング、強化学習、ベイズを無料で学ぶことのできるオンラインリソースを項目ごとにまとめておきます。 機械学習 ITについて学べるオンライン講座「Udacity」は、基本的に有料で講座を受けるのですが、中には非常に中身の詰まったコンテンツで、かつ無料の講座も存在します。 以下の講座では、機械学習の各技術に関して広くカバーしており、決定木からサポートベクターマシン、ニューラルネットワークやベイズ、強化学習まで学ぶことができます。 かなりのボリュームなので興味のあるところを学んでいく感じでも良いと思います。 www.udacity.com s0sem0y.hatenablog.com s0sem0y.hatenablog.com ディープラーニング 同じくUdacityからディープラーニングに関する講座です。 多層パーセプトロンから畳み込みニューラルネット
Every course has real-world projects designed to develop the skills you need to reach your career goals.
はじめに 目標の設定と指標の決定 目標の設定 指標の決定 評価指標に対する最低限の知識 機械学習における知識(補足) ニューラルネットワークの学習 最初に使うニューラルネットワーク 時間的にも空間的にも独立である複数の特徴量を持つデータ 空間の局所的な構造に意味のある多次元配列データ(例えば画像) 時間的な変動に意味のあるデータ(例えば音声、自然言語) ニューラルネットワークの細かい設定 ユニットの数と層の数 正則化 活性化関数 ドロップアウト バッチ正規化 学習の早期終了 性能が出ない場合 データの追加収集 ニューラルネットの設定をいじる 用いるニューラルネット自体を変更する 新たなニューラルネットワークの考案 コードを書くにあたって データ成形 結果を記録するコード フレームワークの利用 フレームワークの選択 ChainerとPyTorch TensorFlow Keras 最後に は
既に深層学習は、chainerやtensorflowなどのフレームワークを通して誰の手にも届くようになっています。機械学習も深層学習も、あまりよくわからないが試してみたいなという人が数多くいるように思います。そして、実際に試している人たちもたくさん居るでしょう。 そんなときにぶち当たる壁は、多種多様なハイパーパラメータの設定です。 これはテストデータの精度に対して、試行錯誤を繰り返しながら決めていくしかありません。 しかし闇雲に値を変えて試してみてもあまり良い成果は得られないでしょう。 今回は、各ハイパーパラメータがそもそもどのような効果を持っているのかをまとめ、学習を行う際の指針になるようにしたいと思います。 ハイパーパラメータとは ユニットの数をどうするべきか 中間層のユニットの数を膨大にする 中間層のユニットの数を少なくする 結局どちらが良いのか 荷重減衰 荷重減衰の効果 荷重減衰の
ディープラーニングを手軽に始められるようにはなったものの、実際に学習を上手く進めるにはチューニングという作業が欠かせません。ここではチューニングの際に気をつけることをサラっとまとめておきます。 層の数とユニットの数 層の数 層が多いことの弊害 基本的指針 発展的方法 ユニットの数 前提の知識 学習の指針の例:情報圧縮 ニューラルネットの中間層の役割 出力と入力の架け橋 中間層による表現力の柔軟性 正則化 L1正則化 L1正則化の概要 L1正則化の役割 ハイパーパラメータの調整 L2正則化 L2正則化の概要 L2正則化の役割 正則化がもたらすニューラルネットへの影響 正則化が上手に働く状況 正則化が失敗する例 正則化における方針 最適化法 学習における偽物の解 改良された勾配法 ドロップアウト アンサンブル学習 アンサンブル学習の考え ドロップアウトとアンサンブル学習 ドロップアウトをした場
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く