タグ

関連タグで絞り込む (285)

タグの絞り込みを解除

*algorithmに関するsh19910711のブックマーク (2,704)

  • MPR(Mean Percentage Ranking)〜暗黙的にユーザの嗜好を得られるレコメンドシステムにおけるオフライン評価指標の紹介

    Precisionベースの測定指標はユーザにとってどれくらいレコメンド結果が望ましくないかを図る指標です。 確かに、レコメンドしたアイテムがユーザにとって望ましいかったのか、そうでなかったのかはAmazonで商品を評価するために☆をつけたり、Youtubeでgoodボタンやbadボタンを押したりといった、レコメンド結果に対する明示的な評価がないとわかりません。 MPRの定義MPRの定義は以下になります。 $$ MPR = \frac{\sum_{u \in U}\sum_{i \in l(u)} r_{u,i} \overline{rank_{u,i}}}{\sum_{u \in U}\sum_{i \in w(u)} r_{u,i}} $$ \( U \) はユーザの集合\( l(u) \) はユーザ \( u \) へのレコメンドしたアイテムの集合\( r_{u,i} \) はユーザ

    MPR(Mean Percentage Ranking)〜暗黙的にユーザの嗜好を得られるレコメンドシステムにおけるオフライン評価指標の紹介
    sh19910711
    sh19910711 2025/05/27
    2020 / "レコメンドに対するユーザの反応を明示的に追跡できない場合(暗黙的にしか得られない)はPrecisionベースの測定指標は不適切 / MPRは順位付けされたレコメンド結果に対するユーザの満足度を測定"
  • ざっくりTabMを知る

    sh19910711
    sh19910711 2025/05/20
    "BatchEnsemble: 大部分のパラメータを共通土台として共有し、一部だけ別々に枝分かれさせる / 1回の入力でk個のサブMLPが並列動作し、それぞれ別々の予測値(出力)を返す"
  • 【論文要約】FederBoost: Private Federated Learning for GBDT - 名前はまだない

    はじめに Federated Learningに興味があり色々確認していたのですが、決定木ベースのモデルはないのかと思うようになりました。 探してみると以下の論文が出てきたので、読みました。 メモとしてここで簡単にまとめます。 arxiv.org はじめに 概要 イントロ 事前知識 GBDT Federated learning Secure aggregation Differential privacy 設定 環境の設定 FLの設定 Vertical FederBoost 学習 バスケット化 差分プライバシーノイズ付加 学習の全体像 推論 プライバシー保護について Horizontal FederBoost 分散バケット構築 学習 プライバシー保護について 実装と実験 有用性の検証 効率性の確認 LAN設定の場合の結果 WAN設定の場合の結果 概要 Federated Learning

    【論文要約】FederBoost: Private Federated Learning for GBDT - 名前はまだない
    sh19910711
    sh19910711 2025/05/20
    2022 / "差分プライバシー: 各個人のデータを保護しながら統計的分析を可能する手法/分野 + 各個人/ノードのデータに対して乱数により発生させたノイズを負荷することで可能になる"
  • DeepLabV3を使った商品棚のSemantic Segmenation - Safie Engineers' Blog!

    こんにちは。セーフィーで画像認識エンジニアをやっている柏木です。 今回はセーフィーで行ったPoC (Proof of Concept) の一つである、商品棚のSemantic Segmentationについて紹介いたします! 背景と課題 Semantic Segmentation DeepLabV3 データセットとアノテーション MMSegmentationを使った学習 データセットClassの作成 データセットConfigの作成 学習・テストConfigの作成 環境 学習 評価結果 終わりに 背景と課題 大手スーパーマーケット様より、商品棚の欠品状況を解析したいとのお話がありました。欠品の状況が解析できれば、品出しのタイミングを最適化し、機会損失を削減することができます。イメージングチームではこれらの課題を解決すべく、PoCを行ってみることとしました! こちらが実際の商品棚の写真になりま

    DeepLabV3を使った商品棚のSemantic Segmenation - Safie Engineers' Blog!
    sh19910711
    sh19910711 2025/05/20
    2023 / "DeepLabV3: Googleが2017年に発表 + Atrous畳み込みを直列に何層も重ね、またAtrous rateを変えて並列に繋げた / MMSegmentation: DeepLabV3に限らず多くのモデルが実装されており、バックボーンも豊富"
  • Implicit biasによる正則化効果 - Preferred Networks Research & Development

    記事は,2019年度インターン生だった東京大学 D1 の中島蒼さんによる寄稿です.中島さんはインターンシップにおいて,畳み込みニューラルネットワークの学習について研究を行いました.この記事は,インターンシップ中に文献調査していたimplicit bias に関するレビューとなっています. NN の学習はなぜうまくいくのか 畳み込みニューラルネットワーク(Convolutional NN; CNN)は画像処理など様々な分野に応用され,大きな成功を納めています.すなわち,様々なデータについて,訓練データから学習したニューラルネットワーク(Neural Network; NN)を用いて未知のデータについての予測や分類が行われています.このようにNN の学習が上手くいく,すなわち未知データに良く汎化することは経験的には分かっていますが,理論的な説明はまだ完全には成功していません. NN に限らず

    Implicit biasによる正則化効果 - Preferred Networks Research & Development
    sh19910711
    sh19910711 2025/05/20
    2019 / "暗黙的な正則化(implicit bias)の正体 / 最適化アルゴリズムの性質によるものだという仮説 / SGD: 小ノルム性が正則化として機能し,未知のデータに対する汎化性能に効いている"
  • 【DL輪読会】Flow Matching for Generative Modeling

    May 19, 2023Download as PPTX, PDF0 likes3,842 views

    【DL輪読会】Flow Matching for Generative Modeling
    sh19910711
    sh19910711 2025/05/20
    2023 / "Flow Matching: Diffusionモデルよりも効率良く訓練・サンプリングできる / 複雑な変換φよりも差分vのほうがMLPでフィッティングしやすい(ResNet的な)"
  • GENIAC第2期成果/データグリッド:汎用画像生成基盤モデルの軽量化のためのTransformersベースLDM—LocalDiT—の開発

    データ前処理: 元画像の中央を基準に1:1比率でクロップし、各解像度にリサイズしました。この処理によりアスペクト比の一貫性を保ちつつ、重要な被写体を中心に維持することができました。 効率的なデータパイプライン: WebDatasetフォーマットを採用し、NVIDIA DALIを使用した高速データローディングパイプラインを構築しました。これにより、I/Oボトルネックを最小限に抑え、GPUの稼働率を向上させることができました。 ただし、全解像度のデータを個別に保存する方式を採用したため、ディスク容量の不足や、データ移行に多大な時間を要するなどの課題も生じました。今後の改善点として、最高解像度(1Kや2K)のデータセットのみを保存し、学習時に動的にリサイズする戦略も検討価値があると考えています。 学習過程における特筆すべき観察点 学習過程で以下のような興味深い現象が観察されました: データ品質の

    GENIAC第2期成果/データグリッド:汎用画像生成基盤モデルの軽量化のためのTransformersベースLDM—LocalDiT—の開発
    sh19910711
    sh19910711 2025/05/20
    "LocalDiT: PixArt-αをベースとした0.52Bパラメータの画像生成Diffusion Transformerモデル / 従来のグローバル注意機構に代わりに局所的注意機構(Local Attention)を導入"
  • Deep Q-Network 論文輪読会

    1. The document discusses implicit behavioral cloning, which was presented in a 2021 Conference on Robot Learning (CoRL) paper. 2. Implicit behavioral cloning uses an implicit model rather than an explicit model to map observations to actions. The implicit model is trained using an InfoNCE loss function to discriminate positive observation-action pairs from negatively sampled pairs. 3. Experiments

    Deep Q-Network 論文輪読会
    sh19910711
    sh19910711 2025/05/20
    2016 / "Q,Vがわかれば、ある状態でどんな行動が最良なのかがわかる + でもQ,Vは自明ではない + Q,Vをなんとかしてもとめるのが強化学習 / TD学習: モンテカルロ法+DP"
  • 強化学習のマンカラ環境を作った話 - マルチエージェントRLライブラリ概観

    初めに この記事は強化学習アドベントカレンダー 2021の記事として書かれたものです. 初めまして,qqhann です.筑波大で修士をしており,修了の瀬戸際です. 強化学習若手の会を知ったのは今年の初め頃だったと思います.Slack コミュニティに参加し,勉強会に参加してたまに質問させていただいたり,共有された記事を読んだりして,いつもためになっています.最近では,ゼロから作る Deep Learning 4 のオープンレビューをそこで知り,通読させていただきました.レビューするつもりで文章を読むと集中力が違うからか,理解も進むように感じますね.強化学習若手の会にせっかく参加しているので,そこでもいつまでも読み専門というのも良くないなと思い,記事を書くことにしました.初めての Zenn 記事でもあります. 今年の前半に,強化学習を動かせるマンカラ環境を作成し,公開しました. 当時は Ope

    強化学習のマンカラ環境を作った話 - マルチエージェントRLライブラリ概観
    sh19910711
    sh19910711 2025/05/17
    2021 / "EFG: 全ての状態は木のノード + 行動をすることで枝分かれ + 探索による古典的アルゴリズムと相性がいい / OpenSpiel: EFG のパラダイムに則ったライブラリ"
  • Mip-NeRF ICCV2021輪読会スライド

    sh19910711
    sh19910711 2025/05/17
    2021 / "NeRFの学習データは基本的に同じスケールの画像 / 学習データと異なる距離でのレンダリングでは精度が劣化 / 近くの描画:ぼやける + 遠くの描画:エイリアス"
  • 【ただのボヤキ】統計学と機械学習とディープラーニングと - HELLO CYBERNETICS

    はじめに 機械学習の発展とそのモチベーション 機械学習の発展 統計学と機械学習のモチベーション 機械学習は予測がしたい 統計学は真実を知りたい 統計学と機械学習の違い モデルの話 数理モデルの例 モデルを構築するときの姿勢 ディープラーニングの話 ディープラーニングでも何らかのモデル化が行われている 多層化は悪ではない 使う側の姿勢の問題 ディープラーニング利用の姿勢 ディープラーニングは人の仕事を奪うか 医療への活用 画像診断への応用 生データへの応用の先 将来の医者と人工知能 地震の予測 地震予測に対する応用 保険数理への応用 保険料算出 機械学習が使えそうな分野だと個人的に思うが 最後に はじめに この記事は最近のディープラーニングの、特に応用的面に関して、私が完全に個人的に思っていることをボヤいているだけの記事です。浅学非才な私の勝手な戯れ言であって、真実を突きつける内容とはなって

    【ただのボヤキ】統計学と機械学習とディープラーニングと - HELLO CYBERNETICS
    sh19910711
    sh19910711 2025/05/17
    2017 / "統計学では手元のデータから、それを説明できるモデルを作る / どちらかといえば「大量に集めたデータから、人間がその背後にある真実を知りたい」ということに重点が置かれる"
  • ランク学習ってどうやって学習するの?学習データ・特徴量・損失関数 - 人間だったら考えて

    この記事はランク学習(Learning to Rank) Advent Calendar 2018 - Adventarの2目の記事です この記事は何? 前回の記事でランク学習の導入を紹介しました。 www.szdrblog.info この記事では、実際にランク学習ではどのような学習データを扱うのか、どんな特徴量を使うのか、どんな損失関数を最適化するのかを紹介したいと思います。 ランク学習における学習データ ランク学習における学習データは、よくある分類問題や回帰問題とはちょっとだけ形式が異なります。 前回の記事でチラッと紹介しましたが、ランク学習では「検索キーワード」・「検索キーワードに対応する検索結果リスト」が学習データとして与えられます。 もう少し形式的に言うと、個のサンプルを含んだ訓練データがあり、各サンプルは「検索キーワード」と「検索キーワードに対応する検索結果リスト」のペアです

    ランク学習ってどうやって学習するの?学習データ・特徴量・損失関数 - 人間だったら考えて
    sh19910711
    sh19910711 2025/05/17
    2018 / "文書のランキングを正しく当てるモデルさえあれば良くて、文書の関連度を正しく当てるモデルまで必要としていない"
  • 機械学習にまつわる3つの誤解 - 武蔵野日記

    昨晩寝る前に発表タイトルと概要についてコメントをしたのだが、朝の4時にミルクで起きることに成功したので、もう一度コメントを送る。この往復が好きなのだが、往復する度にクオリティが上がっていくのが楽しいからかもしれない。 今日は午前に出かける予定なので朝の散歩は省略。最近は暑いので、たまたま気温が低い日でないと、朝早くに行かないと汗だくになる。今日は特別暑そうだし…… 午前中は、現在第一希望の認証保育園まで見学に行く。以前も1回行っているのだが、妊娠中だったので、娘を連れてもう一度行きたかったのである(雰囲気が合うかどうかもあるし)。外が暑かったし、今日は自分も体調も悪くないので、バスではなく車で行く。タイムズ駐車場を検索したところ、満車かどうかまで教えてくれて、便利。空いている駐車場に車を止めて、保育園に向かう。 先週電話したときは、来年の4月1日から入りたい場合は9月1日の10:45から先

    機械学習にまつわる3つの誤解 - 武蔵野日記
    sh19910711
    sh19910711 2025/05/17
    2014 / "実際のデータで実験して場数を踏んで、ときどきは基本の勉強を(復習)する、というサイクルの繰り返しで、どこかでハッと理解できる / 1年に1回くらいは教科書やチュートリアル的なものを流し読みしてみる"
  • Deep Reinforcement Learning: Pong from Pixels - Reinforcement Learning(強化学習)勉強メモ - higepon blog

    http://karpathy.github.io/2016/05/31/rl/ 入門から実践までカバーしていて大変よい。日語訳は https://postd.cc/deep-reinforcement-learning-pong-from-pixels-1/ にある。 Actions は Pong のゲームのバーを Up or Down する。 Reward はボールを相手のバーの向こうに飛ばせたら +1、自分がミスしたら -1。それ以外は 0 とする。 入力は 210x160x3 の image frame をプリプロセスしたもの。(前後のフレームの差にするとか) Agent は入力とRewardしか知らない。ゲームのルールやコツを知らない。 Policy Network 2層のNN。bias なし。 1層目がゲームの状況(ボールが上の方にあるとか、バーが真ん中にいるとか) 2層目が

    Deep Reinforcement Learning: Pong from Pixels - Reinforcement Learning(強化学習)勉強メモ - higepon blog
    sh19910711
    sh19910711 2025/05/17
    2018 / "Policy Gradient: Label y が分からない > モデルからサンプリングする + 現時点では正解かどうかはわからない / 分からないなら、正解がわかるまでまとう"
  • 機械学習の評価指標 – ROC曲線とAUC | GMOアドパートナーズグループ TECH BLOG byGMO

    このエントリーは、GMOアドマーケティング Advent Calendar 2018 の 12/14の記事です。 GMOアドマーケティングとしては初のAdvent Calendar参戦です。 こんにちは、GMOアドマーケティングのS.Rです。 機械学習で分類の問題を解決するときに得られた結果をどのように評価をすればよいか皆さんは知っていますか? 今回はよく使われる分類問題の評価指標であるROC曲線とAUCを皆さんへ紹介します。 1 混同行列(Confusion Matrix): ROC曲線とAUCの説明に入る前に前提知識としてまず、混同行列の定義を皆さんへ説明します。混同行列(Confusion Matrix)は、クラス分類の結果をまとめた表のことです(表1)。 今回は例として分類モデルを使って腫瘍がガンになるかを予測します。 図1: 分類モデルで腫瘍がガンになるかならないかを計算した確率

    機械学習の評価指標 – ROC曲線とAUC | GMOアドパートナーズグループ TECH BLOG byGMO
    sh19910711
    sh19910711 2025/05/17
    2018 / "ROC 曲線: 分類結果の品質を直感的に判断できますが実際に使う場合に数値の指標が必要 / AUC: 指標の名前通りROC 曲線下の面積(積分) + 0.5以上になれば分類器の効果がランダム分類器より良い"
  • スコアベース拡散モデルの概要 - ころがる狸

    こんにちは。前回に引き続き、拡散モデルに関する話題を取り上げます。拡散モデルとはGoogleのImagen等に活用されている話題の生成モデルであり、一部のタスクでは最も研究が進んでいる生成モデルGAN(敵対的生成ネットワーク)の最高性能を上回ることが報告されています。拡散モデルにはスコアベースモデル、拡散確率モデルなど幾つかのタイプがありますが、今回はスコアベースモデルについて解説を行います[1,2,3,4]。 以下は、スコアベースモデルによる画像生成の実例です。人間の目にはフェイクであることが分からないほどの精度で、画像が生成できています。 socre based modelによる画像生成例(出典[4]) エネルギーベースモデルの復習 スコアベースモデルの概要 スコアマッチング スコアベースモデルの課題 多段階のノイズ付加 更なる改良 おわりに 出典 エネルギーベースモデルの復習 スコア

    スコアベース拡散モデルの概要 - ころがる狸
    sh19910711
    sh19910711 2025/05/17
    2022 / "拡散モデルにはスコアベースモデル、拡散確率モデルなど幾つかのタイプ / EBM: マルコフ連鎖モンテカルロ法(MCMC)とcontrastive divergence(CD)を用いる > 重い"
  • GANからWasserstein GANへ - Engineering note

    generative adversarial network(GAN)からWasserstein generative adversarial network(WGAN)への道の整理をします。 こちらを参考にしました: [1904.08994] From GAN to WGAN From GAN to WGAN 目次 Kullback–Leibler Divergence (KL divergence) と Jensen–Shannon Divergence (JS divergence) Kullback–Leibler Divergence Jensen–Shannon Divergence GAN GANの目的関数 密度比推定との関連 Discriminatorの最適解 What is global optimal? GANの目的関数が意味すること GANの問題点 Wasserste

    GANからWasserstein GANへ - Engineering note
    sh19910711
    sh19910711 2025/05/15
    2019 / "Discriminatorの学習は、密度比推定と深い関係 / Wasserstein distanceはθの変化に対して滑らかで、勾配降下法で学習する場合に安定"
  • 【強化学習】Experience Replay の研究の傾向とその考察

    この記事は強化学習 Advent Calendar 2021の12/11の記事です。 0. はじめに 強化学習は(一般的には)学習に必要なデータをプログラム自身が能動的に探索する必要があります。そのため、深層学習のネットワークの大きさや形状だけでなく、探索・学習の方法などロジック全体が重要です。気をつけるべき点や工夫できる点が多岐に渡るため、非常に難しいと同時にとてもおもしろいろ感じています。 この記事では、私が興味を持ってライブラリを開発したり、定期的に(?)記事を書いたりしているExperience Replay (経験再生) について、個人的に感じている近年の研究のポイントについて書こうと思います。 1. Experience Replay研究の着目点 強化学習(のoff-policyな手法)では、遷移 (一般には(s_t, a_t, r_t, s_{t+1}, d_t)の組)をRe

    【強化学習】Experience Replay の研究の傾向とその考察
    sh19910711
    sh19910711 2025/05/15
    2021 / "Experience Replay: 遷移をReplay Bufferに保存しておき、後から『ランダム』に取り出してニューラルネットワーク等のポリシーを学習させることで、サンプル効率を高める"
  • DeepLearningを用いた超解像手法/DRCNの実装 - Qiita

    概要 深層学習を用いた、単一画像における超解像手法であるDRCNの実装したので、それのまとめの記事です。 Python + Tensorflow(Keras)で実装を行いました。 論文では長時間学習させているみたいですけど、今回は凄く控えめな規模で行っているので、ほぼ変化はありません... この論文は、CVPR2016で採択された論文で、以前実装したVDSRと同じ著者です。 同時期に2も論文を執筆していたそうです... 凄い... 今回紹介するコードはGithubにも載せています。 学習済みモデルは容量の関係でアップロードできませんでした... 1. 超解像のおさらい 超解像について簡単に説明をします。 超解像とは解像度の低い画像に対して、解像度を向上させる技術のことです。 ここでいう解像度が低いとは、画素数が少なかったり、高周波成分(輪郭などの鮮鋭な部分を表す成分)がないような画像のこ

    DeepLearningを用いた超解像手法/DRCNの実装 - Qiita
    sh19910711
    sh19910711 2025/05/15
    2021 / "DRCN: リカーシブなモデル + 同じ畳み込み層を何度も繰り返し使用することで重みの共有 / 同じ畳み込み層を繰り返し利用するので、パラメータ数は控えめ"
  • 【声質変換+機械学習】Scyclone+Neural Vocoderによる音声の変換 - Qiita

    この記事は創作+機械学習 Advent Calendar 2021の14日目の記事です。 はじめに DiscordVRChatなど、オンラインでの会話を楽しむプラットフォームが近年賑わいを見せています。 そんな中で「もしも自分の声をさまざまな声質のものへ変換できたら面白いだろう」と思い立ち、声質をさまざまに変換することのできるモデルを実装してみました。 記事では声質の変換例として、データセット「JVS corpus」を用いた男声→女声の変換を取り扱います。例えば以下の紹介動画のような変換が実行できます。 【qiita記事】機械学習の一手法「Scyclone」で声質の変換を行ってみました。https://t.co/91GkC4zIb0 以下は生成例の紹介です。 pic.twitter.com/L6AxVLr2jw — zassou (@zassouEX) December 13, 202

    【声質変換+機械学習】Scyclone+Neural Vocoderによる音声の変換 - Qiita
    sh19910711
    sh19910711 2025/05/15
    2021 / "音声波形からスペクトログラムの変換には短時間フーリエ変換(STFT) / 音声波形を一定間隔で区切り、それぞれに対しフーリエ変換を行うことで周波数成分を求める"