タグ

ブックマーク / s0sem0y.hatenablog.com (7)

  • PID制御の基本的な考え方 - HELLO CYBERNETICS

    制御工学の基礎概念 制御工学とは ロボットアームの問題の例 古典制御工学と現代制御工学 PID制御 PID制御は古典制御の一手法 フィードバック制御 PID制御 PID制御の中身 PID制御の基礎概念 P制御 P制御の役割 P制御の欠点 PI制御 I制御の役割 PI制御 PID制御 D制御の役割 PID制御 更に制御を詳しく学ぶには 周波数解析 現代制御 制御工学の基礎概念 制御工学とは 入力および出力を持つシステムにおいて、その(状態変数ないし)出力を自由に制御する方法全般にかかわる学問分野を指す。主にフィードバック制御を対象にした工学である。 (Wikipedia) 制御工学は、何らかのデータを入れたら、それに作用して何らかのデータを出力するシステムを適切に設計したいという目的で使われます。大抵の場合システムとは物理的実態を持っているケースが多く、例えばロボットアームというシステムに、

    PID制御の基本的な考え方 - HELLO CYBERNETICS
    tsu-nera
    tsu-nera 2017/07/22
  • 深層学習:ハイパーパラメータの設定に迷っている人へ - HELLO CYBERNETICS

    既に深層学習は、chainerやtensorflowなどのフレームワークを通して誰の手にも届くようになっています。機械学習も深層学習も、あまりよくわからないが試してみたいなという人が数多くいるように思います。そして、実際に試している人たちもたくさん居るでしょう。 そんなときにぶち当たる壁は、多種多様なハイパーパラメータの設定です。 これはテストデータの精度に対して、試行錯誤を繰り返しながら決めていくしかありません。 しかし闇雲に値を変えて試してみてもあまり良い成果は得られないでしょう。 今回は、各ハイパーパラメータがそもそもどのような効果を持っているのかをまとめ、学習を行う際の指針になるようにしたいと思います。 ハイパーパラメータとは ユニットの数をどうするべきか 中間層のユニットの数を膨大にする 中間層のユニットの数を少なくする 結局どちらが良いのか 荷重減衰 荷重減衰の効果 荷重減衰の

    深層学習:ハイパーパラメータの設定に迷っている人へ - HELLO CYBERNETICS
    tsu-nera
    tsu-nera 2017/05/18
  • 【PyTorch、Chainer、Keras、TensorFlow】ディープラーニングのフレームワークの利点・欠点【2017年10月更新】 - HELLO CYBERNETICS

    ディープラーニングの大流行の中、様々なフレームワークが登場し、気軽にプログラミングができるようになりました。しかし、そんな中どのフレームワークを選べば良いかわからないという人も多いと思います。そんな人に少しでも参考になればと思い記事を書きます。 はじめに Chainer 特徴 柔軟な計算グラフの構築が可能 Pythonによる実装 直感的な計算グラフの構築が可能 メリット・デメリット メリット デメリット まとめ Keras 特徴 とんでもなく簡単に計算グラフを記述可能 高速計算ライブラリのディープラーニング用ラッパー もはやプログラミングの経験すら不要 メリット・デメリット メリット デメリット まとめ TensorFlow 特徴 圧倒的な利用者数 テンソル計算を行うライブラリ Define and Run 追加のライブラリが豊富 メリット・デメリット メリット デメリット まとめ PyT

    【PyTorch、Chainer、Keras、TensorFlow】ディープラーニングのフレームワークの利点・欠点【2017年10月更新】 - HELLO CYBERNETICS
  • 今更聞けないLSTMの基本 - HELLO CYBERNETICS

    ディープラーニングで畳込みニューラルネットに並ぶ重要な要素のであるLong Short-Term Memoryについて、その基を解説します。 LSTMとは リカレントニューラルネットワーク LSTMの役割 LSTMの計算 Output Gate Input GateとForget Gate Forget Gate Input Gate LSTMの肝であるMemory Cell周辺 Forget Gate側の出来事 Input Gate側での出来事 Cellの手前での出来事 出力付近の話 LSTMの役割 セル付近の役割 Forget Gateが過去の情報をどれだけ保持するか決める 全体を通しての役割 最後に LSTMとは LSTMとはLong Short-Term Memoryの略です。 short-term memoryとは短期記憶のことであり、短期記憶を長期に渡って活用することを可能に

    今更聞けないLSTMの基本 - HELLO CYBERNETICS
  • エントロピーからKLダイバージェンスまでの話 - HELLO CYBERNETICS

    情報理論でエントロピーなる概念を導入し、情報量を定式化したことを前回の記事で紹介しました。 s0sem0y.hatenablog.com 機械学習ではパラメトリックな推定を行う際に真の確率分布p(x)をq(x|θ)で表現するために、KLダイバージェンスKL(p(x)||q(x|θ))を最小化する問題に帰着させます。 KLダイバージェンスの性質が確率分布の隔たりを表現できると考えられるため、このような学習則が用いられ、実際にKLダイバージェンスの最小化は、尤度の最大化と数学的に一致しますから尤もらしい推定を行っていると言えます。 今回はこれを情報量なる観点から見なおして、元々の定義であるエントロピーの立場から、確率分布を近似する有効な手法であることを見ていきます。KLダイバージェンスは相対エントロピーと呼ばれる概念と同等のものであり、相対エントロピーの最小化が最尤推定に一致するわけですが、で

    エントロピーからKLダイバージェンスまでの話 - HELLO CYBERNETICS
    tsu-nera
    tsu-nera 2017/02/08
  • 機械学習の重要なアプローチ:ベイズ理論 - HELLO CYBERNETICS

    はじめに 記事を書いた動機 ベイズを意識する理由 ベイズ推定と正則化 ベイズ統計と伝統的統計 過学習という事実 ノイズへの対策 最大事後確率推定 最適化の立場 ベイズ推定について 正則化の試行錯誤 完全なるベイズの枠組み ベイズの枠組みを勉強できる Pattern Recognition and Machine Learning ベイズ信号処理 基礎からのベイズ統計学 ベルヌーイ分布で最大事後確率推定の導出 ベイズ推定の基的な流れ はじめに 記事を書いた動機 この記事を書こうと思った動機は以下の記事 machine-learning.hatenablog.com を読んだためです。 上記の記事はベイズ推定をメインに扱っていらっしゃる方が書いた記事です。前々から認知していたブログでしたが、私自身はベイジアンではないため特に深く考えるということをしてきませんでした。しかし、最近はベイズ推定

    機械学習の重要なアプローチ:ベイズ理論 - HELLO CYBERNETICS
    tsu-nera
    tsu-nera 2017/01/30
  • 「ゼロから作るDeep Learning」書評。購入を迷っている方へ - HELLO CYBERNETICS

    結論 理由 実装がライブラリに依存していない しっかりと解説が行われている リファレンスが充実している 計算グラフによってネットワークの計算を扱う 中身 誰におすすめできるか 誰におすすめできないか 私がを購入して 結論 非常に良い書籍です。迷っているならば購入してもいいでしょう。 ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装 作者: 斎藤康毅 出版社/メーカー: オライリージャパン 発売日: 2016/09/24 メディア: 単行(ソフトカバー) この商品を含むブログ (5件) を見る 理由 以下記事で理由を述べていきます。 実装がライブラリに依存していない もしもライブラリに依存したものである場合、ライブラリが更新されると、の内容が古くなって価値のないものになることもありえます。しかしこのは、ディープラーニングを理解することに焦点を

    「ゼロから作るDeep Learning」書評。購入を迷っている方へ - HELLO CYBERNETICS
    tsu-nera
    tsu-nera 2016/12/07
  • 1