タグ

MachineLearningに関するwushiのブックマーク (15)

  • MATLABで始めるディープラーニング - Twitter - MATLAB & Simulink

    近年、ディープラーニング(Deep Learning: 深層学習)が多くの注目を集めているのには理由があります。それは人間よりも正確に画像を分類したり、世界最強の囲碁棋士に勝利するほど、ディープラーニングはかつてない高い精度に到達しているからです。 ディープラーニング(Deep Learning: 深層学習)をプロジェクトに活用することに興味があったとしても、これまで一度も使ったことがないとしたら、何から始めたらよいのでしょうか? ディープラーニングのモデルを使うべきか、同じ結果を機械学習で得ることはできるのか?画像分類を行う際、新しいニューラルネットワークを構築するのと、既存の学習済みネットワークを使うのではどちらが適しているのか?ディープラーニングのフレームワークは何が最適なのか? このebookでは、基礎となるテクニックを簡潔に解説しています。ディープラーニングは決して難解なものでは

    MATLABで始めるディープラーニング - Twitter - MATLAB & Simulink
  • データサイエンティストもしくは機械学習エンジニアになるためのスキル要件とは(2017年夏版) - 渋谷駅前で働くデータサイエンティストのブログ

    この記事は2年前の以下の記事のアップデートです。 前回はとりあえずデータサイエンティストというかデータ分析職一般としてのスキル要件として、「みどりぼん程度の統計学の知識」「はじパタ程度の機械学習の知識」「RかPythonでコードが組める」「SQLが書ける」という4点を挙げたのでした。 で、2年経ったらいよいよ統計分析メインのデータサイエンティスト(物:及びその他の統計分析職)vs. 機械学習システム実装メインの機械学習エンジニアというキャリアの分岐が如実になってきた上に、各方面で技術革新・普及が進んで来たので、上記の過去記事のスキル要件のままでは対応できない状況になってきたように見受けられます。 そこで、今回の記事では「データサイエンティスト」*1「機械学習エンジニア」のそれぞれについて、現段階で僕が個人的に考える「最低限のスキル要件」をさっくり書いてみようかと思います。最初にそれらを書

    データサイエンティストもしくは機械学習エンジニアになるためのスキル要件とは(2017年夏版) - 渋谷駅前で働くデータサイエンティストのブログ
  • 機械学習の情報を手法を中心にざっくり整理 - Qiita

    概要 自分用のメモとして、機械学習に関する情報を浅く ( それなりに ) 広くをモットーに、ざっくり整理してみました。 少しでも、他の方の理解に役立ったら嬉しいです。 機械学習とは コンピュータプログラムが経験によって自動的に出力結果を改善していく仕組み。 機械学習の代表的な手法について記載します。 1.教師あり学習 2.教師なし学習 3.強化学習 に分けて記載しました。 ※概要説明は一例です。 1.教師あり学習 1-1.線形回帰 予測したい値を算出する式を連続する多項式として表し、各係数を最小二乗法や最尤推定法で求めることでモデルとなる式を決定する Pythonライブラリ:scikit-learn(sklearn.linear_model.LinearRegression) 参考:最小二乗法による線形回帰のアルゴリズム (自身のQiitaの過去記事です) 1-2.ロジスティック回帰 2択

    機械学習の情報を手法を中心にざっくり整理 - Qiita
  • 機械学習素人が2か月半で機械学習を入門したことまとめ - あさのひとりごと

    ちまたでは、機械学習がブームのようです。 が、、まったく時代についていけていません。 しかし、機械学習、特に自然言語処理に精通した人の採用にかかわる仕事をしている、、、 にもかかわらず、自然言語処理どころか機械学習が全く分からない。 これでは、いけない。ということで 「機械学習をたしなむ学生の皆さんと、ふわっと雑談ができるレベル」 を目指して、2017年正月明けから勉強を始めました。 ちなみに、どんなにキリが悪くても1日3時間まで!と決めています。 そもそも機械学習に興味関心があるわけではない やらなければならない他の仕事がある 家事育児が優先 なので、すこしでも無理すると続かないためです。 「AIで世界を変えられる!」 「人工知能で想像もできない未来が、、、」 みたいなご時世の中、ありえないほどの低テンションで淡々と勉強しているわけで 逆に、そういう意識低い系人間はそんなに多くないでしょ

    機械学習素人が2か月半で機械学習を入門したことまとめ - あさのひとりごと
  • 【Edward】MCMCの数学的基礎からStochastic Gradient Langevin Dynamicsの実装まで - Gunosyデータ分析ブログ

    こんにちは。初めまして。 データ分析部新入りのmathetake(@mathetake)と申します。 先日個人ブログでこんなエントリを書いた人です: mathetake.hatenablog.com そんなこんなでTwitter就活芸人(?)として活動(?)してましたが、これからは真面目に頑張っていこうと思います。 今日はみんな大好きベイズモデリングおいて、事後分布推定に欠かせないアルゴリズム(群)の一つである*1 マルコフ連鎖モンテカルロ法(Markov chain Monte Carlo) 通称MCMCに関するエントリです。より具体的に、 MCMCの意義(§1.)から始め、マルコフ連鎖の数学的な基礎(§2.,3.,4.)、MCMCの代表的なアルゴリズムであるMetropolis-Hastings法(§5.)、その例の1つである*2Langevin Dynamics(§6.)、そして(僕

    【Edward】MCMCの数学的基礎からStochastic Gradient Langevin Dynamicsの実装まで - Gunosyデータ分析ブログ
  • 機械学習に本気で取り組むためにやった数学周り 前半戦結果 - きのこる庭

    自分と同じようなバックグラウンドで「機械学習周辺の数学まわりの勉強をしたい」という人の助けに少しでもなれればと思い、半年間の勉強の軌跡を公開することにした。 ● 前提 ・数学の勉強と言える勉強は高校数学で言う所の数II・Bまでしかやってこなかった。 ・数学が超得意だったかというとそういうわけではなく、まあ普通なライン。 ・大学は情報系で文理一緒だけど、正直大学数学らしい数学はあまりやってこなかった。 ・社会人になって以来ずっと数学コンプレックスで「大学の時もっと理系の勉強をしておけばよかった」と後悔する日々だった。 ・「とにかくツールとか沢山触りまくって慣れた方が良い」という意見も沢山頂いていたのだけど、 – やはり専門の文献を読むとブワーッと数式が出て来て「うっ」となる自分が情けなく感じる経験をした – このまま勉強しないで年をとった後に「あの時やっておけば」という後悔はしたくなかった

    機械学習に本気で取り組むためにやった数学周り 前半戦結果 - きのこる庭
  • 線画着色webサービスPaintsChainerを公開した - Qiita

    http://paintschainer.preferred.tech こちらに先月記事にした線画の着色のデモを公開しました!! 反響の大きかった皆さんに試していただけます!!(ちょっと期待値が上がり過ぎてないといいですがw) http://qiita.com/taizan/items/cf77fd37ec3a0bef5d9d 以前の記事『初心者がchainerで線画着色してみた。わりとできた。』はこちら。 ⇓そしてこちらがもじゃくっきーさんの使用例になっております。 GPUを使っている関係上アクセスが集中したりすると遅くなったりサーバーが落ちたりする可能性もありますが、生暖かく見守っていただければと思います。←たくさんの方に広まったこともあって、めっちゃ重くなっています。ぐぬぬぬ 画面はこんな感じっす。 線画ファイルを選択するととりあえず自動で塗ってくれます。 ※ただし、現状ではgifや

    線画着色webサービスPaintsChainerを公開した - Qiita
  • ディープラーニングの仕組みと応用

    脳の神経回路の構造を模倣 ディープラーニングは、大量のデータを学習するために、人間の脳の神経回路の構造を模倣(モデル化)した情報処理の仕組みであるニューラルネットワークを用いる。図3のニューラルネットワークは、「入力層」「隠れ層」「出力層」という3層で構成している。また、学習データは入力データとなる手書き文字の画素データと、正解データがセットになっている。 このニューラルネットワークのモデルを学習させるには、まず手書き文字画素データをピクセル単位に分割した上で、各ピクセル値を入力層に入力する。図3のモデルでは縦横28ドットで分割していることから、784個が入力層に並ぶ。 入力データを受け取った入力層は、受け取った値に「重み付け」をした上で、後段にある隠れ層のニューロン(神経細胞。CPUのような役割を担う)に伝達する。 同様に隠れ層の各ニューロンは、入力層から受け取った値をすべて加算し、その

    ディープラーニングの仕組みと応用
  • 第3回 機械学習のためのベイズ最適化入門|Tech Book Zone Manatee

    応用範囲が広く幅広い視点からの説明になりがちなベイズ最適化について、記事では機械学習のハイパーパラメータ探索に利用することに限定して解説します。 1. はじめに 最近、ベイズ最適化という手法が注目を集めています。 ベイズ最適化 (Bayesian Optimization) とは、形状がわからない関数 (ブラックボックス関数) の最大値 (または最小値) を求めるための手法です。 ベイズ最適化についての入門記事は Web 上にすでにいくつかありますが、ベイズ最適化は応用範囲が広く、入門記事は様々な応用に向けた幅広い視点からの説明になりがちです。 記事では、機械学習ユーザに向けて、ベイズ最適化を機械学習のハイパーパラメータ探索に利用することに限定して説明します。 これにより、機械学習に対して、ベイズ最適化がどのように利用できるのかを分かりやすく解説したいと思います。 2. ハイパーパラメ

    第3回 機械学習のためのベイズ最適化入門|Tech Book Zone Manatee
  • はてな社内の勉強会で構造学習について発表しました - yasuhisa's blog

    先週末、はてな社内の勉強会で構造学習、特に実装が簡単な構造化パーセプトロンについて発表しました。発表資料と説明用にサンプルで書いたPerlの品詞タグ付けのコードへのリンクを張っておきます。 今日からできる構造学習(主に構造化パーセプトロンについて) from syou6162 structured_perceptron/structured_perceptron.pl at master · syou6162/structured_perceptron 「えっ、Perlかよ」という人がいるといけないので、Clojureで構造化パーセプトロンを使った係り受け解析のサンプルコードへのリンクも張っておきます(2種類あります)。PerlもClojureもあれば8割くらいの人はカバーできそうなので、安心ですね。 syou6162/simple_shift_reduce_parsing syou616

    はてな社内の勉強会で構造学習について発表しました - yasuhisa's blog
  • コレ1枚で分かる「人工知能の3つのアプローチ」

    米ダートマスに研究者たちが集まり、「やがて人間の知能は機械でシミュレーションできるようになる」という考えを提唱し、これを“Artificial Intelligence(人工知能)”と名付けたのは、1956年のことでした。 これをきっかけとして、企業や政府から多額の研究資金を集めることができたのですが、その後の研究が順風満帆だったわけではありません。さまざまなアプローチが試みられてきましたが、必ずしも十分な成果を上げられず、歴史の中に埋もれてしまった研究も少なくありません(その経緯はこちらにまとめています)。 そんな中、今も生き残り、成果を上げている人工知能の3つのアプローチを紹介します。 ルールベースアプローチ 専門家の知識やノウハウを人間がルールとして記述し、そのルールに従ってコンピュータに処理させようというアプローチです。「エキスパートシステム」と呼ばれています。例えば、計測結果から

    コレ1枚で分かる「人工知能の3つのアプローチ」
  • TechCrunch | Startup and Technology News

    When Bowery Capital general partner Loren Straub started talking to a startup from the latest Y Combinator accelerator batch a few months ago, she thought it was strange that the company didn’t have a lead investor for the round it was raising. Even stranger, the founders didn’t seem to be…

    TechCrunch | Startup and Technology News
  • ルールベースから機械学習への道 公開用

    このスライドの目的はルールベースは多くのプログラマができている。�機械学習への橋渡しを詳細に解説することで�ツールとして機械学習を活用できる人を増やすことです。

    ルールベースから機械学習への道 公開用
  • ぼくの実装した最弱のディープラーニング - きしだのHatena

    8月の頭からディープラーニングを実装していたのを、先日、プレゼンしてきました。 プログラマのための数学勉強会@福岡 - connpass ぼくの実装した最弱のディープラーニング from なおき きしだ ※追記 2023/4/12 SpeakerDeckにも置いてます https://speakerdeck.com/kishida/weakest-deep-learning-i-implemented GPU対応したり、ドロップアウトとかミニバッチとかいろいろ実装して、結構つよくなってます。 ちゃんと学習してくれないこと以外は。 ソースはこんな感じになってきています。 https://github.com/kishida/neuralnet/tree/CorrectOperationAsCCN GPU対応にはaparapiを使っています。JavaGPUコードが書けるスグレモノです。 ap

    ぼくの実装した最弱のディープラーニング - きしだのHatena
  • Deep learning at Oxford 2015

    A course I taught in 2015 at Oxford University with the help of Brendan Shillingford. More information here: http://www.cs.ox.ac.uk/teaching/courses/2014-201...

    Deep learning at Oxford 2015
  • 1