タグ

machine learningに関するfubar_fooのブックマーク (312)

  • 統計・機械学習の理論を学ぶ手順 - Qiita

    社内向けに公開している記事「統計・機械学習の理論を学ぶ手順」の一部を公開します。中学数学がわからない状態からスタートして理論に触れるにはどう進めばいいのかを簡潔に書きました。僕が一緒に仕事をしやすい人を作るためのものなので、異論は多くあると思いますがあくまでも一例ですし、社員に強制するものではありません。あと項目の順番は説明のため便宜上こうなっているだけで、必ずしも上から下へ進めというわけでもありません。 (追記)これもあるといいのではないかというお声のあった書籍をいくつか追加しました。 数学 残念ながら、統計モデルを正しく用いようと思うと数学を避けることはできません。ニューラルネットワークのような表現力が高くて色々と勝手にやってくれるような統計モデルでも、何も知らずに使うのは危険です。必ず数学は学んでおきましょう。理想を言えば微分トポロジーや関数解析のような高度な理論を知っておくのがベス

    統計・機械学習の理論を学ぶ手順 - Qiita
  • 【用語解説】連合学習(Federated Learning)とは 

    はじめに連合学習(Federated learning)とは、従来の機械学習が持つ弱点を克服した新たな機械学習の手法であり、近年大きな注目を集めています。 なお、連合学習と秘密計算の違いに関しては、以...

    【用語解説】連合学習(Federated Learning)とは 
  • 【一問一答】マヅコの知らない「異常検知」の世界 - Qiita

    これから異常検知を勉強される初心者、中級者の方のために一問一答集を作ってみました。 実際にあった質問も含まれますが、ほとんどの質問は、私が勉強しながら疑問に思ったことです。 なお、各質問には私の失敗談を添えております。皆さんは私のような失敗をしないよう 祈っております(^^)。異常検知に特化した内容となっておりますので、ご了承ください。 初心者の方向け 勉強の仕方編 Q:異常検知を勉強したいのですが、何から手をつけて良いのか分かりません。 A:書籍を買って読むのがおススメです。 最初、私はネット情報で勉強していました。しかし、それにも限界があります。 ところが、書籍(入門 機械学習による異常検知)を買って読んだところ、かなり知識を 得ることができました。最初から、書籍を買っていれば、一年くらい得することができたのに... と思うこともあります(^^; ただ、こちらのはディープラーニング系

    【一問一答】マヅコの知らない「異常検知」の世界 - Qiita
  • 機械学習で使われる評価関数まとめ - Qiita

    はじめに 評価関数(評価指標)についてあやふやな理解だったので、代表的な評価関数をまとめてみました。 評価関数とはそもそもどんなものなのか、それぞれの評価関数はどんな意味を持つのか、実際に使う時のサンプルコードを簡単にまとめています。 評価関数の追加や内容の修正は下記でしています。 評価関数とは 評価関数とは学習させたモデルの良さを測る指標を指します。 目的関数との違い 機械学習を勉強していると、目的関数や損失関数、コスト関数などいろいろな名前を目にします。 まずは、目的関数との違いについて確認します。 目的関数 モデルの学習で最適化される関数 微分できる必要がある つまり、学習中に最適化されるのが目的関数、学習後に良さを確認するための指標が評価関数ということになります。 損失関数、コスト関数、誤差関数は目的関数の一部になるそうです。 (いくつか議論がありそうなのですが、ほとんど同じものと

    機械学習で使われる評価関数まとめ - Qiita
  • GANを用いた画像異常検知アルゴリズム - Qiita

    概要 ニューラルポケットは、正常品と異常品を高精度で判別する画像分析アルゴリズムを開発し、国際学会ACPRにて発表しました。複数のオープンデータセットによる評価で、世界最高の異常画像検出精度を達成しています。 正常品と異常品を画像から識別するアルゴリズムは、工場や農業、インフラ管理などの幅広い領域において活用が進められており、属人的な作業を機械化することによる、見逃し率の低減や作業の効率化などに、大きな期待が寄せられています。 この領域においては、従来、正常品とのパターンマッチングを中心としたアプローチが主流でしたが、近年、深層学習を用いたアプローチが広まり、正常品の中でも形状変化が大きい、品や柔らかい素材の部品など含め、幅広く活用することが出来るようになってきました。 手法は、その発展として開発されたものであり、以下のような特徴を持ちます: 従来の手法では大量に必要となっていた異常画

    GANを用いた画像異常検知アルゴリズム - Qiita
  • 文系大学生が機械学習を0から始めて9か月でKaggle銀メダルを獲得するまで - Qiita

    今回自分は0から始めて9か月でコンペで銀メダル(6385分の249位,top4パーセント)を獲得できました。 自分の今までの流れをおさらいしていきます。 それまでの僕のスペック 数3と行列はほぼ何も分からない プログラムはrubyjavaはそこそこに書ける、pythonは知らん 勉強の流れ 12月末 機械学習を始めると決心、とりあえず何をやればいいかよく分からないがpythonが必要らしいのでprogateでpythonをやってみる 1月 数学が必要らしいので、行列と微分積分について1から学んでみる。今から考えると、行列の基礎をさらえたのは良かったですが、それ以外はこの時間は絶対いらなかったなと考えています。 微分積分 行列 2月 Udemyで多くの講座を受ける、詳細は以下の記事にまとまっています https://qiita.com/HayatoYamaguchi/items/c8051

    文系大学生が機械学習を0から始めて9か月でKaggle銀メダルを獲得するまで - Qiita
  • How to set loss weight in chainer?

  • A Brief History of Neural Nets and Deep Learning

    A Brief History of Neural Nets and Deep Learning The story of how neural nets evolved from the earliest days of AI to now. Prologue: The Deep Learning Tsunami “Deep Learning waves have lapped at the shores of computational linguistics for several years now, but 2015 seems like the year when the full force of the tsunami hit the major Natural Language Processing (NLP) conferences.” -Dr. Christopher

    A Brief History of Neural Nets and Deep Learning
  • AlphaGoの衝撃再び — タンパク質構造予測でAlphaFoldが今までのモデルに圧勝|Zhubo.JP

    原文記事: [阿尔法狗再下一城 | 蛋白结构预测AlphaFold大胜传统人类模型] (2018/12/03公開) 「研究したいタンパク質があるのだが、その構造と機能がわからない」 — これは分子細胞生物学の研究者が日々直面する最大の難題の一つである*a。アミノ酸配列測定技術が発展する中で、多くのタンパク質の配列がハイスループット*1に解析されているが、この配列決定の段階から実際に3次元構造を決定するまでの間には、未だに大きな距離がある。 生物の基単位が細胞だとして、細胞の基的な機能単位こそが、複雑多岐なタンパク質の1つ1つである。そしてまさにタンパク質の機能の質を決定しているのが、タンパク質の構造である。タンパク質の機能を研究したり、それをターゲットとする薬剤を開発したいというとき、タンパク質の構造はとても重要な要素の一つになる。だからこそ、生物学には、構造生物学という学問領域まで

    AlphaGoの衝撃再び — タンパク質構造予測でAlphaFoldが今までのモデルに圧勝|Zhubo.JP
  • ハイパーパラメータ自動最適化ツール「Optuna」公開 - Preferred Networks Research & Development

    ハイパーパラメータ自動最適化フレームワーク「Optuna」のベータ版を OSS として公開しました。この記事では、Optuna の開発に至った動機や特徴を紹介します。 公式ページ 公式ドキュメント チュートリアル GitHub ハイパーパラメータとは? ハイパーパラメータとは、機械学習アルゴリズムの挙動を制御するパラメータのことです。特に深層学習では勾配法によって最適化できない・しないパラメータに相当します。例えば、学習率やバッチサイズ、学習イテレーション数といったようなものがハイパーパラメータとなります。また、ニューラルネットワークの層数やチャンネル数といったようなものもハイパーパラメータです。更に、そのような数値だけでなく、学習に Momentum SGD を用いるかそれとも Adam を用いるか、といったような選択もハイパーパラメータと言えます。 ハイパーパラメータの調整は機械学習

    ハイパーパラメータ自動最適化ツール「Optuna」公開 - Preferred Networks Research & Development
  • 深層強化学習アルゴリズムまとめ

    はじめに 深層強化学習の分野では日進月歩で新たなアルゴリズムが提案されています. それらを学ぶ上で基礎となるアルゴリズム(というより概念に近い?)はQ学習, SARSA, 方策勾配法, Actor-Criticの4つだと思われるので, これらを軸としてまとめてみたいと思います. 以下の4点はあらかじめご了承ください. コードは書いていません. 概念のみの説明です 他のアルゴリズムの基礎となりうる重要な概念については詳しく書きました. その他については簡潔に書きました 深層学習についてはある程度理解している読者を想定しています 書いているうちに規模がどんどん大きくなってしまったので, どこかに必ず間違いや不足があります. 「この式がおかしい!」「このアルゴリズムも追加するべき!」などコメントがあればぜひお願いします 全体像 扱うアルゴリズムを相関図にしてみました(私のイメージです). まず,

    深層強化学習アルゴリズムまとめ
    fubar_foo
    fubar_foo 2018/11/06
    actor criticは方策勾配やら価値関数推定やらから派生してるから、そこの繋がりも入れた方が良いと思う。
  • 結局、機械学習と統計学は何が違うのか? - Qiita

    これは私達の行っているデータサイエンスのトレーニングで、日でもグローバルでもよく聞かれる質問です。実は2年ほど前にこの質問に正面から真摯に答えていた"Machine Learning vs. Statistics"という、とても素晴らしい記事があるのですが、今日は、そちらの記事をみなさんに紹介してみたいと思います。 ちなみに、筆者のTom FawcettとDrew HardinはSilicon Valley Data Scienceというデータサイエンスのコンサルティング会社で、多くの有名企業がデータサイエンスを使ってビジネスの問題を解決するための支援を行っていました。ちなみに、その会社の方は去年、Appleに買収されています。さらに、Tomは、「Data Science for Business」(翻訳書:戦略的データサイエンス入門 ―ビジネスに活かすコンセプトとテクニック)という有名

    結局、機械学習と統計学は何が違うのか? - Qiita
  • Pythonでの数値計算ライブラリNumPy徹底入門

    NumPyは、多次元配列を扱う数値演算ライブラリです。機械学習だけでなく画像処理、音声処理などコンピュータサイエンスをするならNumPyを学んでおくことで、あなたの日々の研究や開発の基礎力は格段にアップするはずです。 プログラミングの初心者から、Webエンジニア、これから研究する人など、初学者にも分かりやすく優しく説明することを心がけて必要な知識が身につくように解説しています。 腰を据えて学習する時間と余裕のある方は、Step1から順に進めていくことで、苦手意識のあった方でも一通り読み終わる頃には理解できなかったPythonとNumPyのソースコードがスラスラと読めるようになるはずです。 上級者の方は、分からない記事だけ読むだけでも、力になると思われます。あなたのプログラミング能力を向上する手助けになることをお約束します。このサイトを通して、コンピュータサイエンスに入門しましょう。 Ste

    Pythonでの数値計算ライブラリNumPy徹底入門
  • 機械学習案件を納品するのは、そんなに簡単な話じゃないから気をつけて - Qiita

    はじめに 昨日のTwitterで書いたこちらが非常に反響を呼びました。 半年間かけたデータ解析の仕事が全くうまくいかなかった 今回の失敗は契約書に納品物を明記していなかったこと 機械学習の依頼は学習済みモデルのファイルを納品しただけでは、先方は検収できず、結果支払いを受けられない この教訓をひとりでも多くの人に知ってもらいたい — キカガク代表 吉崎亮介 (@yoshizaki_kkgk) 2017年11月20日 そうなんですよね。 全く先方が悪いわけでもなく、私自身が「機械学習のお仕事=解析」だと思いこんでいたことが失敗の始まり。 結局のところ、機械学習系のプロダクトを依頼されて、学習済みモデルを作成して即納品とはいかず、検証結果を示されないと検収できないよとなってしまうので、結局アプリケーション側まで組み込まないと納得感はないんですよね。 この検証とは、訓練データと検証データを分けた時

    機械学習案件を納品するのは、そんなに簡単な話じゃないから気をつけて - Qiita
  • Intuitive explanation of a definition of the Fisher information

    From the way you write the information, it seems that you assume you have only one parameter to estimate ($\theta$) and you consider one random variable (the observation $X$ from the sample). This makes the argument much simpler so I will carry it in this way. You use the information when you want to conduct inference by maximizing the log likelihood. That log-likelihood is a function of $\theta$

    Intuitive explanation of a definition of the Fisher information
  • パスワード認証

    技術者から翻訳者へのシルクロード サラリーマン技術者からフリーランス翻訳者への長旅の記録。雑感、決意、発見、希望、感動、思い出、ため息、愚痴、弱音、etc. 個人用備忘録。パスワードは完全非公開。 注:サイトを非公開にした場合下記ボックスが表示されるのはプロバイダーの仕様です。コメント・質問はプロバイダーにお寄せください

    パスワード認証
  • Content analysis FAQ

    Last updated on Jun 18, 2024 05:08:54 PM GMT | Also applies to Adobe Creative Cloud, Document Cloud Find answers to your questions about content analysis for product improvement when using Creative Cloud and Document Cloud apps.

    fubar_foo
    fubar_foo 2017/09/23
    Adobeはサービス向上のため、預かったデータを機械学習出来るという話。
  • Adobe General Terms of Use

    We have updated our General Terms of Use to make the language easier to understand. Please watch the explainer video and read the terms below to learn about 
the clarifications we have made to more clearly describe how we are treating and protecting your data. Over the next several weeks we will roll these terms out to 
customers globally. Our General Terms of Use is a legal agreement between you

    Adobe General Terms of Use
    fubar_foo
    fubar_foo 2017/09/23
    Adobeはサービス向上のため、預かったデータを機械学習出来るという話。
  • https://wwwimages2.adobe.com/content/dam/acom/en/devnet/creativesuite/pdfs/JP/Security_CCE_FAQ_20130424.pdf

    fubar_foo
    fubar_foo 2017/09/23
    Adobeはサービス向上のため、預かったデータを機械学習出来るという話。
  • The Softmax function and its derivative - Eli Bendersky's website

    The softmax function takes an N-dimensional vector of arbitrary real values and produces another N-dimensional vector with real values in the range (0, 1) that add up to 1.0. It maps : And the actual per-element formula is: It's easy to see that is always positive (because of the exponents); moreover, since the numerator appears in the denominator summed up with some other positive numbers, . Ther

    The Softmax function and its derivative - Eli Bendersky's website