タグ

関連タグで絞り込む (285)

タグの絞り込みを解除

*algorithmに関するsh19910711のブックマーク (2,700)

  • 【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features

    2. ©2018 ARISE analytics 2 概要 タイトル: Deep Clustering for Unsupervised Learning of Visual Features 著者: Mathilde Caron, Piotr Bojanowski, Armand Joulin, Matthijs Douze https://arxiv.org/abs/1807.05520 一言で言うと すごい点 感想 CNNで特徴抽出してK-meansを繰り返す 教師なしでもCNNで特徴抽出ができる DeepClusterを使って教師なしで pre-training → 少量の画像で fine-tuning というやり方は現実の問題でも使えそう モチベーション 学習データへのラベルづけが大変なので教師なしでやりたい

    【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
    sh19910711
    sh19910711 2025/05/13
    2019 / "DeepClusterを使って教師なしてpre-training + 少量の画像でfine-tuning / Xie: Encoder/Decoderで学習した表現についてクラスタのKL情報量を最小にする"
  • YOTO(YOU ONLY TRAIN ONCE)を不均衡データ対策の損失関数に適用して画像分類してみた - statsuのblog

    この記事は、YOTO(YOU ONLY TRAIN ONCE)の雰囲気を掴むことを目的として、不均衡データ対策の損失関数にYOTOを適用して画像分類してみた記録です。 YOTOを使うことで、1つのモデルでMajorクラスの性能が良いモデル or Minorクラスの性能が良いモデルをテスト時に選択できました。 検証に使ったコードはgithubにあります。 GitHub - statsu1990/yoto_class_balanced_loss: Unofficial implementation of YOTO (You Only Train Once) applied to Class balanced loss 記事の概要 YOTO(YOU ONLY TRAIN ONCE)について ICLR2020でGoogleから発表されたDeep learningに関する技術。 YOTOを適用したモ

    YOTO(YOU ONLY TRAIN ONCE)を不均衡データ対策の損失関数に適用して画像分類してみた - statsuのblog
    sh19910711
    sh19910711 2025/05/13
    2020 / "YOTO: Majorクラスの性能が良いモデル or Minorクラスの性能が良いモデルをテスト時に選択 / YOTOとClass Balanced Lossを組み合わせ + 損失関数を工夫することでMinorクラスの推定精度を上げる"
  • 劣モジュラ最適化と機械学習1章

    sh19910711
    sh19910711 2025/05/13
    2017 / "劣モジュラ性: 集合関数における凸性にあたる構造であることが知られ / 劣モジュラ関数: 離散的なデータ構造を表すのに適した関数"
  • 階層型Metric Learningを試してみる

    こんにちは、SREホールディングス株式会社にてデータサイエンティストをやっております吉田です。 記事ではMetric Learningを用いた階層型の学習について、背景や実験を交えて紹介します。 対象読者 階層的なMetric Learningに興味のある方 OpenMMlab(mmpretrain)でSupervised Contrastive learning、Hierarchical Multi-Label Contrastive Learningがしたい方 背景 Metric Learning Metric Learningでは特徴量の学習を通常のクラス分類ではなく、特徴量間同士の距離を学習する形で行います。これにより類似した入力の検出や、未知のクラスへの対応が可能となります。 実例として、kaggleのGoogle Landmark Recognition 2020では与えられ

    階層型Metric Learningを試してみる
    sh19910711
    sh19910711 2025/05/13
    2024 / "1つの階層でクラス分類するには課題 / 犬の中にもゴールデンレトリバー、ブルドッグ、プードルのような犬種があり、これらは別々のラベルとして扱いたい"
  • Vision-Language Modelを活用した「見た目が近い商品」レコメンド改善の取り組み | メルカリエンジニアリング

    こんにちは、メルカリのAI/LLMチームで機械学習エンジニアをしているarr0wとshoです! テックブログでは、Vision-Language Modelの一つであるSigLIP [1]を、メルカリの商品データ(Image-Text Pairs)でファインチューニングし、メルカリの商品画像Embeddingの性能を大幅に改善したプロジェクトについて紹介します。 今回作成したSigLIPの性能を評価するために、商品詳細ページの「見た目が近い商品」のレコメンド機能でA/Bテストを実施しました。 この「見た目が近い商品」のレコメンド機能は、社内ではSimilar Looksと呼ばれています。作成したモデルをSimilar Looksの類似画像検索に適用し、既存モデルとの比較のためのA/Bテストを行いました。 そして、その結果として、主要なKPIにおいて以下のような顕著な改善が確認できました。

    Vision-Language Modelを活用した「見た目が近い商品」レコメンド改善の取り組み | メルカリエンジニアリング
    sh19910711
    sh19910711 2025/05/13
    2024 / "SigLIP: Vision-Language Modelの一つ + CLIPで使用されている従来のSoftmax Lossを、Sigmoid Lossに置き換えて事前学習"
  • 「モデル」とは何か,について考えていたことを,DSIRNLP(データ構造と情報検索と言語処理勉強会)で発表してきました - a lonely miner

    先日, @overlast さんから,DSIRNLP(データ構造と情報検索と言語処理勉強会 )という会にお誘いを頂きまして,以前から考えていたことをちょこっとお話してきました.当日の様子は, @mamoruk さんが togetter にまとめてくださっていますので,そちらもご覧ください. 第5回 データ構造と情報検索と言語処理勉強会 #DSIRNLP - Togetterまとめ 私の発表スライドは slideshare に置いておきました.いくつか直したいところがあるので,そのうち差し替えるかも. いまさら聞けない “モデル” の話 @DSIRNLP#5 from Koji Matsuda 他の方々がものっそい最先端な話ばかりのなか,私一人だけがひどくぼんやりとした内容でたいへん恐縮でしたが,問題意識を共有するきっかけを頂けたことに感謝しています. そもそもこの話をしようと思ったきっかけ

    sh19910711
    sh19910711 2025/05/13
    2014 / "モデル(仮定) と アルゴリズム,パラメータはそれぞれ別のものだということをまずはじめに押さえておくことで,見通しが良くなる"
  • [Package] 最適輸送問題のパッケージを試す | POT, OTT-jax, OptimalTransport.jl

    最適輸送 (Optimal Transport) は近年機械学習などの分野で注目されているトピックです. 私も前世に,Optimal Transportに関するPDFファイル (というか?でしょうか) を読んだ記録を書いていたことがあります (以下のQiita検索を見てください). これまでPythonの代表的なパッケージとしてPOT (Python Optimal Transport),JuliaのパッケージとしてOptimalTransport.jl などがありましたが,最近ネットサーフィンしていると Google Research謹製のJAXパッケージ Optimal Transport Tools (OTT) と呼ばれるものが登場していたことに気付いたので比較をしてみました.またPOTとOTT-jaxの比較については公式ドキュメントが公開しているものを実行して挙動を確認しました.

    [Package] 最適輸送問題のパッケージを試す | POT, OTT-jax, OptimalTransport.jl
    sh19910711
    sh19910711 2025/05/11
    2021 / "最適輸送: Pythonの代表的なパッケージとしてPOT (Python Optimal Transport),JuliaのパッケージとしてOptimalTransport.jl など / OTT: Google Research謹製のJAXパッケージ"
  • Connect Fourをちゃんと強化学習できた話 - threecourse’s blog

    アルファ碁ゼロの手法で、Connect FourというゲームAIを強化学習で作成させてみました。 Connect Fourは、「重力付き四目並べ」のようなゲームです。(四目並べ - Wikipedia) そこまで探索空間が大きすぎず、またソルバーもあるため、強化学習が正しくできるかのテスト用としては妥当なゲームでしょう。なお、正しく打てば先手必勝です。 参考文献の「AlphaGo Zeroの手法でリバーシの強化学習をやってみる」のコードをforkしたものを元に作成しました。 Connect Four用に直し、自分の好みで構造を整理しています。 コードは以下にアップロードしました。細かい工夫がたくさんあり複雑な割には分かりやすくなったはず・・ github.com 学習結果 環境: OS: Ubuntu 18.04, CPU: Core i9-9900K, RAM: 32GB, GPU:

    Connect Fourをちゃんと強化学習できた話 - threecourse’s blog
    sh19910711
    sh19910711 2025/05/11
    2020 / "Connect Four: 「重力付き四目並べ」のようなゲーム / 自己対戦ワーカーと学習ワーカーを作成し、それぞれのプロセスを常に動かしておく / 生成された学習データをウォッチし、十分に溜まっていればモデルの学習"
  • Apex Legendsによる文化的背景の違うユーザの交流に関する分析(#1)|shimasan0x00

    こんにちは,Shimasan(@shimasan0x00)です. 皆さんはApex Legends(エーペックスレジェンズ)遊んでますか? 遊んでいなくてもどこかでその単語を目にすることがあることかと思います. この基無料バトロワゲームを介して最近,顕著な変化が起きていると私は感じています. それは「APEX」を介した文化的背景の違うユーザの交流です. 最近,APEXをメインで配信している配信者やプロゲーマーがアイドル漫画家やアーティスト,クリエイター,芸能人と共にプレイすることが各種配信サイトで確認することができます. 通常,これらの多様なユーザ(特に配信者)は特別なキッカケがなければ交流することが難しいと考えられます. 現在はそれらのユーザが「APEX」を介して交流する機会というのが増えています. さらにこの現象によってそれらのユーザに興味・関心を持つ一般的なユーザも違う分野のコミ

    Apex Legendsによる文化的背景の違うユーザの交流に関する分析(#1)|shimasan0x00
    sh19910711
    sh19910711 2025/05/09
    2021 / "APEX: 芸人やアーティスト,歌い手,アイドルなど多種多様なユーザと配信者がつながっている / ユーザの色はLouvain法というコミュニティ抽出法によってコミュニティ別に着色"
  • iALSによる行列分解の知られざる真の実力

    以下では、この表データは \(X\) という行列にまとめられているとします。上記テーブルに含まれる user_id 数を \(N_U\) , item_id 数を \(N_I\) とするとき、 \(X\) は \( N_U \times N_I\) 行列であり、その第 \(i\) 行は user_id として \(\mathrm{user}[i]\) を持つユーザーに、第 \(j\) 列 は item_id として \(\mathrm{item}[j]\) を持つアイテムに対応するとします。このマッピングのもと、 \(X\) の \(i\) 行 \(j\) 列の要素は、以下の式で与えられます。 $$ X_{ij} = \begin{cases} 1 & (\text{if } \mathrm{user}[i] \text{ and } \mathrm{item}[j] \text{ had

    iALSによる行列分解の知られざる真の実力
    sh19910711
    sh19910711 2025/05/09
    2022 / "接触がなかった組み合わせについては、かならずしも興味がなかったのではなくて、ユーザーがアイテムのことを知り得なかった場合など、さまざまな事情がありうる + 0 に近いとは言えなそう"
  • 「機械学習を解釈する技術」のここがすごい - まずは蝋の翼から。

    はじめに 弊社の森下が書籍を出版することになりました。 「機械学習を解釈する技術 ~ 予測力と説明力を両立する実践テクニック」 gihyo.jp 書のレビューに関わらせてもらったのでここが良かったぞ!という部分を書こうかなと思います。 はじめに 書の特徴 ここがすごいぞ!① 線形回帰モデルを起点に「解釈」について各手法を説明している ここがすごいぞ!②数式に対応するアルゴリズムをコードでも書いて説明している ここがすごいぞ!③ 実際の値を確認しつつ解説する ここがすごいぞ!④ 手法の特徴・メリット・デメリットが腹落ちしやすい まとめ 書の特徴 書の概要としては、以下のような書籍となっている ・機械学習モデルは予測精度が高い一方で、何故そのような予測になったかがブラックボックス(解釈性が低い) ・しかし昨今は説明責任を果たすためにモデルの振る舞いの把握が求められている ・このような予

    「機械学習を解釈する技術」のここがすごい - まずは蝋の翼から。
    sh19910711
    sh19910711 2025/05/06
    2021 / "馴染み深い線形回帰モデルを起点 / 「機械学習ではこの手法(各章で紹介する手法)を使うことで同じように解釈ができる」と追従する形"
  • 言語と数理の交差点:テキストの埋め込みと構造のモデル化 (IBIS 2024 チュートリアル)

    深層学習の登場以降、機械学習と言語処理の距離はぐっと縮まった。機械学習が問題を抽象化して議論するのに対し、言語処理は言語また言語処理タスクに内在する構造や制約を前提としてモデル化を行う。例えば文の処理では文法的制約を与える木構造を前提とし、対訳辞書構築では単語をノード、対訳関係をエッジとする二部グラフを…

    言語と数理の交差点:テキストの埋め込みと構造のモデル化 (IBIS 2024 チュートリアル)
    sh19910711
    sh19910711 2025/05/06
    2024 / "BERT: ”swing”の表現って200個あんねん / 文脈化埋め込み: 文脈なしには使いづらい + 文脈の影響が大きすぎる場合も / Tiyajamorn: 「意味」と「言語らしさ」成分の分離"
  • [DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions

    [DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions

    [DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
    sh19910711
    sh19910711 2025/05/06
    2018 / "Glow: VAE・Adamの提案者であるD.P.Kingmaの論文 + 厳密な潜在空間の推論および尤度評価が可能な可逆変換を持つ生成モデル"
  • 情報推薦アルゴリズムの効果をどう評価するのか - 図書館情報学を学ぶ

    以前このブログでも紹介した『集合知プログラミング』を読みつつ、細々とデータマイニングの勉強を続けているこの頃です。それに関連して情報推薦についての研究動向についても調べていたりしているのですが、そうしていくうちに疑問に感じることがありました。 それは、情報推薦アルゴリズムの有効性を正しく評価できるのか?ということです。アルゴリズムというと、素数の判定やソートなどが思い浮かびますが、その場合の有効性はいかに少ない時間で計算結果を出せるかという、定量的な尺度で評価することが可能です。しかし情報推薦の場合は効率性ではなくユーザーの明示化できない欲求に応えることという数値化しにくい目的であるので、果たしてそこで導入されるアルゴリズムの有効性はそもそも評価できるのだろうか?と思うのです。 情報検索のアルゴリズムの場合は、適合率と再現率の2つの尺度によって評価することができます。適合率とは「検索結果中

    情報推薦アルゴリズムの効果をどう評価するのか - 図書館情報学を学ぶ
    sh19910711
    sh19910711 2025/05/04
    2008 / "情報推薦の場合は効率性ではなくユーザーの明示化できない欲求に応える / そもそも何を推薦すれば「正解」となるのか、明確に判断することはできない"
  • [ICML2021 論文読み会] Mandoline: Model Evaluation under Distribution Shift

    sh19910711
    sh19910711 2025/05/04
    2021 / "「データに関するグルーピング(スライス)」という知識がある場合、それを活かしてシフトを適切にガイド / スライス関数で分布を補正し期待値計算"
  • Deep SVDDに基づく外れ値検知をPyTorchで実装した - 備忘録

    はじめに 外れ値検知の機械学習モデルの一つとして"Deep SVDD" が知られている。 今回はこれを、異常検知/外れ値検知のためのPythonパッケージPyODの仕様に沿った形で、PyTorchにより実装したということである。 外れ値検知は1クラス分類と捉えることができ、「通常」クラスか「それ以外(=外れ値、つまり異常)」という分類が行われる。 "Deep SVDD"は、外れ値検知の既存手法であるOne-Class SVM / Support Vector Data Description (SVDD) の非線形カーネルをニューラルネットワークで置き換えたものである。 準備 PyODはpipでインストール可能である。 pip3 install pyod ほか、torch, sklearn, numpy, tqdmのインストールを済ませておく。 Deep SVDDについて 概要は以下の記事

    Deep SVDDに基づく外れ値検知をPyTorchで実装した - 備忘録
    sh19910711
    sh19910711 2025/05/04
    2021 / "Deep SVDD: 外れ値検知の既存手法であるOne-Class SVM / Support Vector Data Description (SVDD) の非線形カーネルをニューラルネットワークで置き換え"
  • 解説: Metadata Normalization

    sh19910711
    sh19910711 2025/05/04
    2021 / "メタデータの影響を排除するためのBN等の代わりになる正規化層の提案 / 提案手法はメタデータ情報をより無視して特徴を埋め込める"
  • 自己教師あり学習の新しいアプローチ / SimSiam: Exploring Simple Siamese Representation Learning

    ■イベント 
:画像処理勉強会 https://sansan.connpass.com/event/195202/ ■登壇概要 タイトル:自己教師あり学習の新しいアプローチ 発表者: 
ソフトウェアエンジニア 笹野 泰正 さん ▼Sansan R&D Twitter https:…

    自己教師あり学習の新しいアプローチ / SimSiam: Exploring Simple Siamese Representation Learning
    sh19910711
    sh19910711 2025/05/04
    2020 / "SimSiam: 2つのネットワークに対して異なるデータ拡張 + ターゲット方向への勾配停止 + 予測レイヤーを追加 / Siamise: 異なる視点で見たものを同じものになるように最適化 + 表現学習には向いていない"
  • The Web Conference2020 参加報告会

    https://connpass.com/event/174856/?utm_campaign=event_publish_to_follower&utm_source=notifications&utm_medium=twitter

    The Web Conference2020 参加報告会
    sh19910711
    sh19910711 2025/05/01
    2020 / "転移学習: サービス内で訓練データをあまり取得できない状況下でも性能を高めたい + サービスを立ち上げた直後や利用ユーザーが少ないような場合"
  • 日本語 BERT RetroMAE モデルの公開と、後続検索タスクでの評価 - A Day in the Life

    結果として、ほぼ全てのスコアにおいて性能向上が確認されており、RetroMAEの有益性が確認された。また学習方法も、教師なしでテキストのみを与えれば良いという手軽さも実用性が高いであろう。 RetroMAE について RetroMAEの特徴は、Masked Auto-Encoderの手法を採用しながら、以下の3つの設計を取り入れた点である。 入力文に対して異なるマスクを適用する新しいワークフロー エンコーダーとデコーダーで非対称な構造を採用 エンコーダーとデコーダーで異なるマスク率を使用 これらの工夫により、文書の意味をより深く理解し、効果的な検索を可能にする表現学習を実現している。実際の評価においても、BEIRやMS MARCOなどのベンチマークで優れた性能を示している。また高性能のマルチリンガル密ベクトルモデルの BAAI/bge-m3 も RetroMAE を用いた事前学習を行なって

    日本語 BERT RetroMAE モデルの公開と、後続検索タスクでの評価 - A Day in the Life
    sh19910711
    sh19910711 2025/05/01
    2024 / "BERT: 主にトークンレベルのタスクで事前学習されており、文レベルの表現力が十分に発達していないという課題 / RetroMAE: 検索に特化した事前学習 + 入力文に対して2つの異なるマスクを適用"