タグ

ブックマーク / www.hellocybernetics.tech (9)

  • PyTorch1.3 リリース【プロダクト側も本格始動】 - HELLO CYBERNETICS

    はじめに Mobile Support Quantization support C++ Frontend Improvements ONNX Exporter Improvements 所感 はじめに これまでPyTorchといえば柔軟にネットワークが変更でき、素早いプロトタイプの実験が可能な研究志向の強いDeepLearningフレームワークという印象が強かったです。 しかし今回v1.3をリリースし、プロダクト側の強化の姿勢を大きく見せてきたように思います github.com Mobile Support これまではTFliteがモバイルサポートで突出している状況でしたが、PyTorchが公式にモバイルのサポートを提供し始めました。 今回のアップデートで、モバイルでTorchScript推論が動くようにサポートされました。TorchScriptはPyTorchで書いたコードをtorc

    PyTorch1.3 リリース【プロダクト側も本格始動】 - HELLO CYBERNETICS
  • 標本数が多い場合の標本平均はガウス分布になる誤解の多い話 - HELLO CYBERNETICS

    はじめに 中心極限定理 標数 なぜに標数を必要とするか 標平均 標平均の分布の極限 中心極限定理の誤用 データで見る標平均の分布 ある標の分布(データの分布) とある標の代表値:標平均 1000人の研究者に協力してもらう 当の中心極限定理 補足 最後に はじめに 中心極限定理と呼ばれるガウス分布にまつわる恐ろしく強力な定理に関して、勘違いが出てくることが多いようなので、勘違いが出る理由と実例について簡単に見ます。 中心極限定理 中心極限定理とはコトバに「極限」が含まれている通り、何かを無限大に飛ばしたときに何かが(非自明な)極限値を持つことを述べた定理です。 標数 ここで重要なコトバとして「標数」というのを見ておきましょう。 不慣れな場合だと、標とかサンプルと言ったとき、何か1つのデータのように思ってしまうのではないでしょうか。統計学のコトバとして使わない限りは、例

    標本数が多い場合の標本平均はガウス分布になる誤解の多い話 - HELLO CYBERNETICS
  • 強化学習に出てくるベルマン方程式を理解しよう - HELLO CYBERNETICS

    はじめに ベルマン方程式の概要 最適制御と評価関数 最適制御 評価関数 価値関数 ベルマンの最適性原理 ベルマン方程式 価値関数の離散化 状態の時間発展再訪 ベルマン方程式 まとめ 最後に はじめに 強化学習の基礎に置かれている「ベルマン方程式」について、言葉は知っているが実はちゃんと理解していないという方は意外と多いのではないかと思われます。これを知っていようが知っていまいが、正直世の中の便利なフレームワークを活用すれば強化学習を実行することは可能であるためだと推測されます。 しかし、ある種の出発点になっているはずの基礎方程式を無視して、ガチャガチャ色々試してみても、なんだかフワついたままでモヤモヤしてしまうのではないでしょうか。少なくとも自分はそうです。 なので今回はベルマン方程式を基から丁寧に解説していきたいと思います。 ベルマン方程式の概要 細かい話をする前に、ベルマン方程式がど

    強化学習に出てくるベルマン方程式を理解しよう - HELLO CYBERNETICS
  • ディープラーニングは自動で特徴を抽出してくれる? - HELLO CYBERNETICS

    はじめに 特徴抽出とは ニューラルネットワークによる特徴抽出 深層学習は特徴抽出を自動で行うのか 補足:当に自動機械学習に向けて はじめに 未だに強く主張されることの多い「ディープラーニングは人手の特徴抽出作業を自動で実施してくれる」という話。 このことについては肯定も否定もしないというのが私の立場ですが、基的に「思っているより思い通りには行かない」という事実があることは主張しておきたいです。 そのために、今回「ディープラーニングが自動で特徴抽出を行ってくれる」ということがどういうことなのかを簡単に説明します。 特徴抽出とは まず特徴抽出とは何かを説明していきましょう。特に断りが無い限りは大文字は行列、小文字はベクトルあるいはスカラーだと思って差し支えありません(今回は特に細かい数式の設定が議論に影響することはありません)。 今、入力 $x$ で出力が $y$ となるような適当なデータ

    ディープラーニングは自動で特徴を抽出してくれる? - HELLO CYBERNETICS
  • 大幅に進化するらしいTensorFlow2.0について - HELLO CYBERNETICS

    はじめに TensorFlow2.0がもうすぐ来るよ! APIs High level APIs Eager Exexution Reference Models Contribの扱い プラットフォーム TensorFlow Lite TensorFlow.js TensorFlow with Swift パフォーマンス Distributed TensorFlow CPUGPU、TPUの最適化関連 その他のパッケージ TensorFlow Probability Tensor2Tensor End to End ML systems TensorFlow Hub TensorFlow Extended はじめに TensorFlow2.0ではこれまでのTensorFlowから大幅に変化するので、その変更点について記しておきます。 基的には公式のRoadmapの和訳と思って差し支えあり

    大幅に進化するらしいTensorFlow2.0について - HELLO CYBERNETICS
  • 機械学習の分野別概要【ディープ〜ベイズ】 - HELLO CYBERNETICS

    はじめに ディープラーニング 概要 方法論 ツール 伝統的機械学習 概要 方法論 ツール ベイズ機械学習 概要 方法論 ツール 最後に はじめに 今回は機械学習のいろいろな分野(便宜的に分けているだけですが)についてそれぞれ概要とツールをまとめておきたいと思います。具体的には以下の3つに分けて書いています。 ディープラーニング 伝統的機械学習 ベイズ機械学習 注意点として、これらは来別々に完全に分けて考えるものでもなく、混ぜて使うことができたり、あるいは理論的背景を共有していたりするものです。しかし、現状多くの場面ではこれらは用途に応じて使い分けられているのが実体であるため、あくまで使う側の立場でこれらの概要とツールについて述べていきます。 ディープラーニング 概要 ディープラーニングは言わずと知れた、機械学習の大流行の引き金となった存在です。 ディープラーニングのメインとなる存在である

    機械学習の分野別概要【ディープ〜ベイズ】 - HELLO CYBERNETICS
  • サポートベクターマシン(support vector machine:SVM)の基礎 - HELLO CYBERNETICS

    線形識別器の代表格としてサポートベクターマシンを取り上げます。 機械学習で一躍有名となった手法の1つで、ディープラーニングが流行る以前は「え、まだニューラルネットやっているの?時代はサポートベクターマシンでしょ」と言った雰囲気でした。今はなぜか逆転して「まだサポートベクターマシンやってるの?」と言う人が実際にいるのですが(笑)、ディープラーニングの設計・学習の手間などを考えるとサポートベクターマシンはまだまだ捨てたものではありません。転移学習などでも応用が効きますしね。 SVMはマージン最大化という考えで、高い汎化性能を持つことが知られています。今回は、SVMがどのような考えでデータを識別するように学習を行うのかを説明していきたいと思います。今回は線形識別器として取り上げますが、当然基底関数を変える、カーネル法を用いることで非線形への拡張ができますから、その点についても触れていきたいと思い

  • ここからはじめるディープラーニングの主流手法まとめ【保存版】 - HELLO CYBERNETICS

    s0sem0y.hatenablog.com ディープラーニングは2006年にトロント大学のHinton氏が考案したDeep Belief Networkから始まりました。このとき考案されたのが事前学習という手法で、一層ずつ層を学習させてから繋げていくことで、一気に深い構造を学習させる際に生じていた勾配消失問題を回避することに成功しました。 その後深い構造を使った機械学習が全てディープラーニングと呼ばれるようになり、今やその種類は非常に多岐に渡ります。今回はディープラーニングって言っても色々出てくるけど、どれがどれだか分からないという人のために(そして自分の中で整理するために)、ディープラーニング手法をまとめてみたいと思います。 ディープラーニングの種類のまとめ Deep Belief Network(DBN) 最初に登場したディープラーニングの手法 特徴抽出を人手でやらなくても良くなった

    ここからはじめるディープラーニングの主流手法まとめ【保存版】 - HELLO CYBERNETICS
  • 見たら瞬時に理解すべき数式 - HELLO CYBERNETICS

    機械学習で現れる数式に関して、これを見たら瞬時に理解すべきものを載せておきます。 機械学習で現れる数式には大量の添字があり、それらのせいで一体どのような計算が行われているのかを瞬時に把握するのが難しくなっています。しかしもはやこれは慣れの問題です。 教科書を根気強く理解できるようにするのもいいですが、予めどのような表現があるのかを知っていれば、もっと楽に読み進めることができるはずです。そのための言わば事前に知っておくと言い数式たちを載せておきます。 行列の行と列の数 計算の法則 特に頻出する形式 和の計算と行列表現 内積 行列計算 出現場面 固有値と固有ベクトル 固有ベクトルは、ほとんど変換を受けないベクトル 固有値とは、固有ベクトルがどれだけ定数倍されたかを表す 出現場面 勾配 勾配はスカラー関数の各成分の傾き 勾配はスカラー関数の等高線の法線ベクトル 出現場面 終わりに 行列の行と列の

    見たら瞬時に理解すべき数式 - HELLO CYBERNETICS
  • 1