タグ

機械学習とブログに関するomega314のブックマーク (8)

  • 機械と学習する

    【概要】 「深層学習による自然言語処理」の輪読会をしています 輪読会第4回目は5章が範囲でした 【目次】 はじめに 輪読会記録 資料リンク 第5章の概要 5章全体を通した感想 その他:キャッチアップについて その他:実務での利用について おわりに 参考文献 はじめに 講談社MLPシリーズの「深層学習による自然言語処理」の輪読会をしています。 輪読会の範囲で気になったことや資料のリンクなどをまとめていきます。 輪読会のリンクはこちらです。 learn-stats-ml.connpass.com 「深層学習による自然言語処理」のほか、輪読会を定期開催しているので、気になった方はグループメンバーになってもらえるとうれしいです。 また、Slackのwork groupを用意しているので、参加したい方は何らかの方法で私に連絡ください(輪読会参加してなくてもwelcome)。 【トップに戻る】 輪読会

    機械と学習する
  • 星の本棚

    機械学習の一種である強化学習について勉強したことをまとめたノート(忘備録)です。 尚、ここで取り上げている各種強化学習手法の一部の手法の実装コードは、以下のレポジトリに保管してあります。 github.com 目次 [Contents] 強化学習のモデル化 エージェントと環境の相互作用 環境のマルコフ性 エピソード的タスクと連続タスク マルコフ決定過程(MDP) 価値関数 状態価値関数 行動価値関数 状態価値関数と行動価値関数の関係 ベルマン方程式 ベルマン最適方程式とグリーディーな選択 代表的な古典的強化学習手法の比較 強化学習における動的計画法(DP法) 反復法による近似解 方策評価 反復方策評価 方策改善 方策改善定理 方策改善定理とグリーディー方策 方策改善のアルゴリズム 方策反復法 [policy iteration] 価値反復法 [value iteration] 一般化方策反

    星の本棚
  • ガシンラーニング

    今回は、LDA(Latent Dirichlet Allocation)の逐次モンテカルロ法(Sequential Monte Calro)であるパーティクルフィルター(Particle Filter)によるトピック推論をPythonで実装しました。 コードは全てgithubに載せています。githubはこちら Twitterフォローよろしくお願いいたします。twitterはこちら 以下の書籍3.5章とこの書籍が参照している元論文を参考にしました。 Online Inference of Topics with Latent Dirichlet Allocation [Canini 2009]こちら こちらの書籍はトピックモデルに限らずベイズモデリング推論の良書です。 トピックモデルによる統計的潜在意味解析 (自然言語処理シリーズ) 作者: 佐藤一誠,奥村学 出版社/メーカー: コロナ社

    ガシンラーニング
  • 作って遊ぶ機械学習。

    今回は8月に出版した講談社機械学習プロフェッショナルシリーズの「ベイズ深層学習」の概要を書いてみます. www.kspub.co.jp 講談社のページ等では目次は載っていますが,それより詳細な情報はネットにはないので,もう少しだけ踏み込んだ内容をここで紹介することにします. 内容紹介 第1章 はじめに ベイズ統計と深層学習(ディープラーニング)は仲が悪いように世間的には見られがちですが,実は両者は非常に親和性が高いことを解説しています. 両分野のそれぞれの利点としては,ベイズ統計ではモデルの高い解釈性や設計の明確さ,深層学習ではGPUなどを用いた大規模データの効率的な計算方法等を挙げることができます.これらの利点は相補的であり,組み合わせることによってアルゴリズムの改善が期待できます. また,両分野には共通点もあります.深層学習ではタスクごとにネットワーク構造を設計する必要性がありますが,

    作って遊ぶ機械学習。
  • 廿TT

    要約 ベイズ的にやったとしても、逐次的にABテストの評価をやったらアルファエラーは保たれないよ ベイズ更新 まず、ベイズ更新について簡単に説明しておきます。 ベイズの定理や条件付き確率については他のページを参照してください。 以降、3 つの分布が出て来るのでそれらを区別することが必要です。 : 事前分布(prior distribution)。データの情報を入れる前のパラメータの分布 : 適切な名前が思いつかないので、とりあえず標分布と呼ぶことにしよう。パラメータを与えたときのデータの分布 : 事後分布(posterior distribution)。データの情報が入ったパラメータの分布 いま、パラメータを確率変数とみて、データを与えたときのパラメータの分布、事後分布を求めたい。 それにはベイズの定理を使います。 ここではクリックとかコンバージョンの「0か1か

    廿TT
  • めもめも

    gihyo.jp 上記の書籍ページで目次が公開されていますので、内容が気になる方は参考にしてください。また書の位置付けを知っていただくために、「はじめに」と「おわりに」の部分を抜粋して掲載しておきます。 はじめに 「生成 AI を使ったアプリを開発してみたい!」―― 書は、そんなあなたのための一冊です。 生成 AI が誰でも簡単に使える時代が来て、チャットのインターフェースで調べ物をしたり、プロンプトの呪文(?)を投げて好みの画像を生成したりと日々の生活に役立つ用途が話題にのぼります。また、その一方で、個人で利用するだけでは飽き足らず、「生成 AI を活用した新しいアプリを作って人々に提供してみたい」「業務システムに生成 AI を組み込む方法を知りたい」、そんな思いを持つ方も増えているようです。 とはいえ、実際に動くアプリを作り上げるには、生成 AI の使い方に加えて、エンドユーザーに

    めもめも
  • 数理工学のススメ | 数学・数理工学の面白い / 役立つブログ(予定)

    オンライン学習の一種である敵対的オンライン凸最適化の問題設定とアルゴリズムの性能評価指標(リグレット)を解説し,オンライン近接勾配法 $\dis x_t = \class{red}{\argmin_{x\in \R^d} \Big\{ \innprod{p_{t-1}}{x} + g(x) + \frac{\eta_t}{2}\|x - x_{t-1}\|^2 \Big\}}$ のリグレット上界を証明をします.

  • Obey Your MATHEMATICS.

    §1. はじめに こんにちは こんばんは 久しぶりの投稿です。 タイトルはスーパーマン松さんのアレから拝借しました: codezine.jp 今日はポエムを書きます。 なにか技術記事を期待してた方、もしいましたらすみません。また次回。 完全に僕の観測範囲での主観に基づいていますので、燃えるかもしれません。 この文書は you should do ではなく what I didがメインです §2. 背景 数学しか知らなかった僕がGunosyに入社して、約7ヶ月ほど経ちました。 数学しか知らなかった、と書いたものの「数学は知っていたのか」と言われるNOです。 3ミリぐらいしか知りません。 僕が機械学習エンジニアになった経緯は↓の2つの記事にだいたい書いてあります: mathetake.hatenablog.com gunosiru.gunosy.co.jp 7ヶ月がむしゃらに仕事をしてきて

    Obey Your MATHEMATICS.
  • 1