機械学習や深層学習(Deep Learning)に使われる数学をまとめたので公開します. 微積と線形代数の初歩的な知識があれば大丈夫です. 主なトピックは,誤差逆伝播法,重回帰モデル,正則化,CNN,ボルツマンマシン,RBN,強化学習などです.Read less
Published on May 09, 2016 by Dr. Randal S. Olson automation data science machine learning 8 min READ Machine learning is often touted as: A field of study that gives computers the ability to learn without being explicitly programmed. Despite this common claim, anyone who has worked in the field knows that designing effective machine learning systems is a tedious endeavor, and typically requires co
Photo by Horia Pernea こんにちは。谷口です。 最近「機械学習に興味がある」「いつかやろうと思ってるんだよね……」と言うエンジニアの方をよく目にします。また、その倍ぐらい「機械学習難しすぎて挫折した」という方も見ます。 弊社のITエンジニアにも機械学習を勉強中という人がいますが、特に最初は難しすぎて何から手を付けたらいいのかよく分からず、とても悩んだと言っていました。そこで同じような悩みを抱えている方の参考になればと思い、初心者の頃に参考になった機械学習入門者の方に役立ちそうな記事やスライドを聞いてきました。 また、Pythonには機械学習のためにデータを処理するライブラリ(数値演算をするためのライブラリや図を作成するためのライブラリなど……)がそろっていて、呼び出したり組み合わせて処理したり……といったことがしやすいため、多くの人が機械学習で使っています。コードも短く
2016/4/16 "第53回 データマイニング+WEB @東京( #TokyoWebmining 53rd ) ーファッション・コマース 機械学習 祭りー" を開催しました。 第53回 データマイニング+WEB @東京( #TokyoWebmining 53rd ) ーファッション・コマース 機械学習 祭りーEventbrite Google グループ 会場提供して下さったSmartNewsさん、どうもありがとうございました。素敵なトークを提供してくれた講師メンバーに感謝します。多くの方々の参加を嬉しく思っています。 参加者ID・バックグラウンド一覧 参加者セキココ:第53回 データマイニング+WEB @東京 セキココ (作成してくれた [Twitter:@komiya_atsushi] さんに感謝) 以下、全講師資料、関連資料、ツイートまとめです。 AGENDA: ■Opening T
ひと月ほど前になりますが、基礎からのベイズ統計学入門 輪読会で発表させて頂きました。 タイトルは「階層モデルの分散パラメータの事前分布について」で、Andrew Gelman の論文 Prior distributions for variance parameters in hierarchical models (PDFリンク) の内容をまとめたものです。 ベイズ統計において、パラメータの事前分布に何を使うかというのは重要な問題です。 分散パラメータの事前分布には伝統的に逆ガンマ分布が使われますが、この論文によると半コーシー分布を使いましょうとのことです。 発表資料は SlideShare に上げています。 階層モデルの分散パラメータの事前分布について from hoxo_m ベイズ統計に興味のある方は、5/19 に 基礎からのベイズ統計学入門 輪読会 #5 最終回 が行われますので参
Pythonには「NumPy」や「Pandas」などデータ分析に役立つライブラリが充実しており、中にはPythonからRを呼び出すことができるライブラリもあります。 これからデータ分析を始めるエンジニアのために、Pythonでのデータ分析に関する入門スライドを13個まとめてご紹介いたします。 データ分析の初心者向けのスライドを中心にピックアップしていますので、これからデータ分析を学びたいというエンジニアの方はぜひご覧ください。 【ご自身のデータ分析スキルの価値を知りたい方はご相談ください】 ・市場価値を知りたい方の個別相談会 ・キャリアアップを目指す方の個別相談会 ・転職のタイミングや業界動向を知りたい方の相談会 10分でわかるPythonの開発環境 10分でわかるPythonの開発環境 from Hisao Soyama Pythonを書く前にやっておくべき開発環境の構築についてまとめた
Alec Radford has created some great animations comparing optimization algorithms SGD, Momentum, NAG, Adagrad, Adadelta, RMSprop (unfortunately no Adam) on low dimensional problems. Also check out his presentation on RNNs. "Noisy moons: This is logistic regression on noisy moons dataset from sklearn which shows the smoothing effects of momentum based techniques (which also results in over shooting
このエントリーは以前書いた機械学習で積雪の有無を予測してみたの続編です。この時は積雪の有無(1か0か)だけを予測したのですが、もうちょっと頑張って積雪量の変化を予測してみました。 先に結果を記しとくと、こんな感じになりました。横軸が日数、縦軸が積雪量(cm)です。 結果その1(青が実際の積雪量、赤線が予測した積雪量) 結果その2(青が実際の積雪量、赤線が予測した積雪量) 「結果その1」と「結果その2」がそれぞれ何なのかは以下を読んでみてください。 やりたかったこと 以前、機械学習で積雪の有無を予測してみた で scikit-learn を使って積雪の有無を予測してみたのですが、ちょっと欲が出てきて、有無じゃなくてまとまった期間の実際の積雪量(cm)を予測してみたい、と思ってやってみました。 具体的には、気象庁から提供される 積雪量 風速 温度 などの気象データを取得して、そのうち最初の約7
2ヶ月前のエントリーにはてブが入りまくった件で「そういえば続編書いてないや」と気が付き、エントリーしますた。 「誰でも」の定義および、このエントリーの対象読者について 「誰でも」というのは、 (エンジニアなら)誰でも という意味です。 より具体的には、 野球愛溢れるエンジニアにとって、Vagrant + Ansibleでのサーバー構築の練習&Pythonでのプログラミングという趣味実益を兼ねたいい感じのお勉強なるかつ、趣味の野球でhackが出来る二度美味しい内容です 野球に興味が無い方にとっては野球愛溢れるエンジニア同様サーバー構築&Pythonネタとしていい勉強になるかもです。ただ、他にももっといいエントリーがあると思います 非エンジニアの野球ファンの皆さまにとっては(小難しい的な意味で)ヘビーな内容となっていますので、覚悟してお読みください!ただ、プログラミングを覚えたい方にとっては凄
データ分析から導き出されたインサイト無しにAI(人工知能)の活用は始まりません。私たちは、各業界知識とデータ・アナリティクス技術を駆使しデータドリブン経営を強力に支援します。 データ、アナリティクス、AIは企業にとって競合他社との差別化を図るかつてないほど大きな要因になっています。今日の経営幹部が効率を向上しながら新たな収益源を開拓し、新しいビジネスモデルをタイムリーに構築する方法を模索する中、価値を生み出し成長を続ける企業には「データ活用」という共通項があります。私たちは、無数のデータから企業にとって本当に必要なデータを活用するための方法を知っています。 将来を見据えたオペレーション体制を備えている企業の半数以上(52%)は、すでにデータとアナリティクスを大規模に活用しています。データとAIに関する取り組みをビジネス戦略に沿って実施することで投資利益率を迅速に最大化し、最終的にはAIをビ
機械学習のC++ Pythonのライブラリの1つdlibに気づいた。 PythonにはScikit-learnという強力なライブラリがあるが、 選択肢の1つとして考えておこう。 機械学習のライブラリ dlibのアルゴリズムの選択ガイド 機械学習のライブラリ dlibのアルゴリズムの選択ガイドが 図にしてありました。 こちらはscikit-learnのガイド ![Choosing the right estimator] (http://scikit-learn.org/stable/_static/ml_map.png) dlibの記事 SlideShare 20160417dlibによる顔器官検出 YouTube [dlib vs OpenCV face detection] (https://www.youtube.com/watch?v=LsK0hzcEyHI) YouTube Fa
重ね合わせ状態を使うと計算が高速になる なぜ、この量子力学的な重ね合わせ状態を使うと計算を高速にできるのでしょうか? 先ほど並列計算がものすごくできるからと述べました。量子コンピュータ内で、0と1がどちらも50%の確率である重ね合わせ状態を作ったとします。すると、この状態は、0の場合の計算と1の場合の計算を同時にこなすことができます。これを量子ビットと呼びます。この量子ビットを2個用意すると、0と1の重ね合わせ状態が2つでき、00と11と01と10の4つの状態の重ね合わせ状態となります。つまり、2量子ビットで4並列できます。3量子ビットだと、000と001と010と100と011と110と101と111の8並列……のように、量子ビットの数に対して指数関数的に並列度が増加します。量子ビットが10個あると2の10乗=1024並列です。20個あると約1000000並列。このくらいの並列度であれば
metric-learn: Metric Learning in Python ¶ Distance metrics are widely used in the machine learning literature. Traditionally, practicioners would choose a standard distance metric (Euclidean, City-Block, Cosine, etc.) using a priori knowledge of the domain. Distance metric learning (or simply, metric learning) is the sub-field of machine learning dedicated to automatically constructing optimal dis
I'm trying to solve a one arm bandit problem where the target is a stochastic function. For Python users there are a lot of options in terms of software: sigopt spearmint moe hyperopt BayesianOptimization pybo gpyopt Does anyone know the difference? Are there any that I'm missing? From what I've been gathering, Sigopt is too expensive. Spearmint is probably the best open-source option, but has a t
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く