タグ

関連タグで絞り込む (285)

タグの絞り込みを解除

*algorithmに関するsh19910711のブックマーク (2,700)

  • 2025年度 人工知能学会全国大会(第39回)参加報告 - Sansan Tech Blog

    こんにちは、Sansan株式会社 技術部 研究開発部の田柳です。 2025年5月27日(火)〜30日(金)の4日間、大阪国際会議場(グランキューブ大阪)にて開催された 2025年度 人工知能学会全国大会(JSAI2025)に参加してきました。弊社はプラチナスポンサーとして協賛し、大田尾・黒木・竹長・田柳・山内が現地参加しました。 私自身、学生時代は経済学を専攻し、現在は契約書データのキーワード抽出技術の研究開発などに取り組んでいます。こうした機械学習系の学会への参加は今回が初めてで、多くの刺激を受けました。 記事では、印象に残ったセッションや発表、そして会場の雰囲気などをレポートします。 ブースにて、写真左からでの田柳・竹長・大田尾 JSAI2025について 以下、JSAI2025の公式HPから引用します。 JSAI 2025は、人工知能学会(JSAI)が主催する日最大級のAI学術イ

    2025年度 人工知能学会全国大会(第39回)参加報告 - Sansan Tech Blog
    sh19910711
    sh19910711 2025/06/14
    "有価証券報告書に記載されているMD&A(経営者による財政状態・経営成績の分析)欄 + 定性的な記述が多い企業ほど、市場の反応が大きくなる傾向 / 2Win5-80: GITの動画VQAを応用し動画のフレームの代わりにページ画像を入力"
  • [論文紹介] 最小経路法とCNNを統合したPath-CNN - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 論文について Progressive Minimal Path Method with Embedded CNN Wei Liao, CVPR, 2022 概要 管状構造のセグメンテーションにおいて、最小経路法にCNNを組み込んだPath-CNNを提案し、中心線とセグメンテーションマスクを生成。 管状構造のセグメンテーションにおいて有望な手法であることがU-Netと比較して示された。 Related Work Image futures 最小経路法では、画像ヘッシアンをはじめとして人力で調整された特徴を用いて管状構造を識別するが、このよ

    [論文紹介] 最小経路法とCNNを統合したPath-CNN - Qiita
    sh19910711
    sh19910711 2025/06/14
    2024 / "Path-CNN: 経路に基づいた動的な特徴 + ダイクストラアルゴリズムと上の動的特徴を組み合わせ / 都市や郊外以外の環境・河川にも適用でき、中心線のアノテーションのみで2値セグメンテーション"
  • pythonの機械学習を用いた衛星画像による土地被覆部類 - Qiita

    import pandas as pd import numpy as np import rasterio import geopandas as gpd import matplotlib.pyplot as plt import optuna import statistics from sklearn.feature_selection import SelectKBest, f_classif from rasterstats import point_query from sklearn.model_selection import StratifiedKFold, cross_val_score from sklearn.ensemble import RandomForestClassifier from xgboost import XGBClassifier from

    pythonの機械学習を用いた衛星画像による土地被覆部類 - Qiita
    sh19910711
    sh19910711 2025/06/14
    "QGISを用いて点地物を作成し、その地点のピクセルの値を取得 / 各土地被覆と特徴量の関係を分散分析 (ANOVA)を実施してデータの中身を確認 / TCWを入力にした方が針葉樹林と広葉樹の分類が上手くできてそう"
  • Grounding DINOのファインチューニング(追加学習)の仕方

    Grounding DINO とは Grounding DINOとは、物体検出と視覚言語統合のモデルで、特にテキスト条件付き物体検出に強みを持つモデルです。 具体的には、Grounding DINOは自然言語のテキストを入力として受け取り、そのテキストに関連するオブジェクトを画像の中で検出できる機能を持っています。 これにより、従来の物体検出モデルがラベルやカテゴリに基づいて検出を行うのに対し、Grounding DINOはより柔軟で、事前定義されていないカテゴリでもテキストを使って検出が可能です。 この記事を読んでできるようになること Grounding DINOは、訓練を行わなくても利用できるゼロショットモデルとして優れた性能を発揮しますが、航空画像のような特定の領域では物体検出が苦手な場合があります。 記事では、像のデータセットを使用して、Grounding DINOを自分のデータ

    Grounding DINOのファインチューニング(追加学習)の仕方
    sh19910711
    sh19910711 2025/06/14
    2024 / "テキスト条件付き物体検出に強み / 事前定義されていないカテゴリでもテキストを使って検出 / 自然言語のテキストを入力として受け取り、そのテキストに関連するオブジェクトを画像の中で検出できる"
  • 日本語ModernBERTの開発: 開発と評価編 (1/3) - SB Intuitions TECH BLOG

    概要 こんにちは、SB Intuitions株式会社インターンの塚越です。 日語・英語合わせて約4.4T tokensを学習した日語ModernBERTというモデルを構築・公開しました。 記事では、その開発過程や評価結果についてお話しします。 我々が開発した日語ModernBERTは、30m, 70m, 130m, 310mと4つの異なるパラメータサイズをもち、それぞれのモデルが同パラメータ規模のモデルと比較して、記事公開時点では最も高い性能を達成しています。 開発した一連のモデルはHuggingFaceにてMITライセンスのもと公開しておりますので、商用・研究用問わず自由にお使いいただけます。 https://huggingface.co/sbintuitions/modernbert-ja-30m https://huggingface.co/sbintuitions/mod

    日本語ModernBERTの開発: 開発と評価編 (1/3) - SB Intuitions TECH BLOG
    sh19910711
    sh19910711 2025/06/14
    "LLMで採用されているがBERTでは採用されていない技術: RoPE + GLU派生手法 / 毒性分類タスク(Toxicity)の性能は全体的に既存モデルと比較して低い傾向 + 低品質なテキストをかなり削減しているため"
  • 主成分分析とカーネル主成分分析の関係を特異値分解の観点で理解する - Qiita

    はじめに 前回、線形回帰とカーネル回帰について書いた記事 の続きのような感じで、主成分分析とカーネル主成分分析を取り上げます。 PRMLやその他のを読んでいて難しく感じたカーネル主成分分析の導出について、普通の書き方とは別の視点でまとめてみます。 自分なりに考えた結果、特異値分解の知識を背景にすれば、主成分分析とカーネル主成分分析の関係がすっきり理解できると思うのですが、やネットで言及しているものが見当たらないので、記事にしました。 まとめると、以下のようなことです。 主成分分析は共分散行列の固有値問題に帰着する カーネル主成分分析はグラム行列の固有値問題に帰着する これらはどちらも計画行列の特異値分解を(それぞれ別の方面から)解いていることに相当する。 データベクトル $x$ が $N$ サンプルあるとします。データをそのまま使ってもよいのですが、カーネル法のことも考えると、より一般

    主成分分析とカーネル主成分分析の関係を特異値分解の観点で理解する - Qiita
    sh19910711
    sh19910711 2025/06/14
    2018 / "特異値分解の知識を背景にすれば、主成分分析とカーネル主成分分析の関係がすっきり理解できる / 主成分分析は共分散行列の固有値問題 + カーネル主成分分析はグラム行列の固有値問題に帰着"
  • NLP2025 参加報告 - Gunosy Tech Blog

    こんにちは、データサイエンス部の森田、大城、新規事業開発室の井口です。 もう気がつけば開催から一月経ってしまいましたが、今回の記事は 3/10 ~ 3/14 の 5 日間にわたって開催された言語処理学会第 31 回年次大会 (NLP2025) の参加レポートになります。 スポンサーしてます NLP2025 について 論文紹介 [P8-15] 逆プロンプトを用いたコールドスタート推薦 [A2-1] 大規模言語モデルにおける複数の指示追従成功率を個々の指示追従成功率から推定する [A5-4] プロンプトに基づくテキスト埋め込みのタスクによる冗長性の違い まとめ NLP2025 について 言語処理学会は人工知能の一分野である(自然)言語処理を専門とする学会です。近年は特に LLM の話題が多く、参加者の幅も広がっているようです。 昨年に引き続きオフライン・オンラインのハイブリッド開催となり、長崎

    NLP2025 参加報告 - Gunosy Tech Blog
    sh19910711
    sh19910711 2025/06/11
    "P8-15: 「逆プロンプトを用いたコールドスタート推薦」 / 質問形式を逆転させ「このユーザーはどのようなアイテムを好むか」という質問で好みそうなアイテムの擬似サンプルを得ることで学習データを拡張"
  • MetaのWatermark Anything Modelの論文を読み解く - stMind

    arxiv.org Metaが画像電子透かし技術に関する論文を発表しました。MetaのAnything Modelといえば、Segment Anything Modelがありますが、今回の論文はWatermark Anything Model。一体どのような技術なのか?論文の内容をまとめてみました。 Introのまとめ 画像電子透かし技術は、人間の目には見えない形で画像に情報を埋め込む技術です。従来は著作権保護などを目的としていましたが、近年のAI生成画像の普及に伴い、その用途は大きく変化しています。 ホワイトハウスの行政命令やEUのAI法など、各国政府はAI生成コンテンツの識別を容易にするための規制を導入しており、電子透かしはそのための重要な手段として注目されています。 しかし、従来の電子透かし技術は、画像の一部を切り貼りする「スプライシング」などの操作に対して脆弱です。例えば、電子透か

    MetaのWatermark Anything Modelの論文を読み解く - stMind
    sh19910711
    sh19910711 2025/06/07
    2024 / "電子透かしをセグメンテーションタスクとして再定義 / 画像全体ではなくピクセルごとに電子透かしの有無を判断し、埋め込まれたメッセージを抽出 / より人間の視覚システムに合わせた、自然で目立たない透かし"
  • 分散共分散行列の固有値問題と主成分分析(PCA)|スクラッチ実装で理解する機械学習アルゴリズム #1 - Liberal Art’s diary

    データ分析機械学習を行う上で、必ずしも全ては必要ないにしても最低限の理論の理解は欠かせません。とはいえ、とっつきづらかったり数学がネックになったりで学習に挫折するケースをよく拝見します。 こういった挫折のケースの要因は読み手の知識不足の際もあるのですが、によっては説明が不十分だったり読みにくかったり誤植があったりと単に理解しやすい文面で書かれていないというのもあります。また、実装の中にはライブラリの使い方の説明がメインのケースもあります。 そこで、シリーズではあえてスクラッチ実装を元に機械学習のアルゴリズムを実装していくことで、アルゴリズムの概要を掴んだり理論の流れを掴んだりできるようにできればと思います。実装のほとんどが車輪の再発明に近くなりますが、ベーシックなアルゴリズムをあえて一から自分で追ってみるというのは引き出しを増やすという意味で非常に有意義です。 #1では主成分分析に

    分散共分散行列の固有値問題と主成分分析(PCA)|スクラッチ実装で理解する機械学習アルゴリズム #1 - Liberal Art’s diary
    sh19910711
    sh19910711 2025/06/06
    2019 / "あえてスクラッチ実装を元に機械学習のアルゴリズムを実装していく / ベーシックなアルゴリズムをあえて一から自分で追ってみるというのは引き出しを増やすという意味で非常に有意義"
  • nDCGを2つのランキングが変わらないことの確認に使ってみた

    Spearman相関係数とSpearman Footruleに関しては、2つのランキングで要素がどのくらい移動したかを数値化したもので、上位k件での評価をすると不一致要素が発生しうる。もう一方のランキングに含まれない要素は距離計算不能となるのでその点でこの2つは今回の要件的には不適切です。上位を重視するという点については、nDCGは下位ほど減点することで相対的に上位に加点することになりますし、不一致要素も関連度0として扱えばよいので今回の要件をクリアしています。 nDCGとは? nDCG(Normalized Discounted Cumulative Gain)は、検索結果やレコメンデーションの品質の評価などに使われる指標です。 nDCGはDCGを正規化した指標で、理想のDCG(IDCG)で割ることで正規化しており、これにより検索クエリ同士比較しやすくなります。 \mathrm{nDCG

    nDCGを2つのランキングが変わらないことの確認に使ってみた
    sh19910711
    sh19910711 2025/05/30
    "Spearman相関係数とSpearman Footruleに関しては、2つのランキングで要素がどのくらい移動したかを数値化 / nDCGは下位ほど減点することで相対的に上位に加点する"
  • 最強DB講義 #35 大規模言語モデルに基づく検索モデル

    BERTやGPTなどの大規模言語モデルに基づく検索モデルは、様々なテストコレクションにおいて優れた性能を発揮し多くの注目を集めている。これまでに様々な検索モデルが提案されてきており、大規模言語モデルの情報検索への適用は、実サービスにおいても一般的なものとなっている。講義では、大規模言語モデルを利用した…

    最強DB講義 #35 大規模言語モデルに基づく検索モデル
    sh19910711
    sh19910711 2025/05/30
    2024 / "情報検索モデルの分類: クエリ・文書が密表現/疎表現されるか + 教師あり/教師なし / SPLADE: 教師あり疎検索モデル + クエリと文書を拡張し各トークンの重みを推定"
  • 【DL輪読会】GradMax: Growing Neural Networks using Gradient Information

    【DL輪読会】GradMax: Growing Neural Networks using Gradient Information

    【DL輪読会】GradMax: Growing Neural Networks using Gradient Information
    sh19910711
    sh19910711 2025/05/30
    2022 / "Network Growing: 小さなシードアーキテクチャから学習と成長を繰り返してネットワークを大きくしていく + メモリや計算量が少なくて済む / どのように新しいネットワークの重みを初期化するか"
  • Raggle第2回コンペ - StaticEmbeddingで安全に爆速RAGを実施する

    Raggleの第2回コンペでアイデア賞をいただいたのでメモ。ありがとうございます〜 ソースコード 下記を参考に、Transformerモデル組み込みたいんやけど...と生成AI相談してコード作りました。要件定義と手元デバッグ野郎でした。 解法のコア このツイートにほぼすべてが詰まっています。Twitter最高! TransformerではないEmbeddingモデルである、static-embedding-japaneseをベクトル検索に用いました。 著者のセコンさんもTwitterに書いてくださっていますが、CPUでも爆速でEmbeddingできます。 今回のコンペで使った文書のEmbeddingに使う時間を比較してみたところ、以下の通りでした。 モデル 時間 上記は 396chunks(1chunk, 1000文字ごとチャンク) での計測時間です。 ※ 各々のCPUのスペックやOpe

    Raggle第2回コンペ - StaticEmbeddingで安全に爆速RAGを実施する
    sh19910711
    sh19910711 2025/05/27
    "OpenAIのtext-embeeding-smallとアンサンブル / StaticEmbeddingで類似度を計算し、コサイン類似度が0.9を下回っている場合のみRAGの候補として追加とすることで参考情報の多様性を担保"
  • 小型LLM「ABEJA Qwen2.5-7B Model」学習のための蒸留のパイプライン並列化 - ABEJA Tech Blog

    はじめに こんにちは、Labsチームの藤です。 弊社は、経済産業省とNEDOが実施する、国内の生成AIの開発力強化を目的としたプロジェクト「GENIAC(Generative AI Accelerator Challenge)」の1期に続き、2期にも採択され、そこで大規模言語モデルの開発を進めています。今回は、そのプロジェクトの中で実施した大規模言語モデルの蒸留(Knowledge Distillation)に関する技術的な取り組みをご紹介します。 蒸留の成果については、以前の記事(https://tech-blog.abeja.asia/entry/geniac2-qwen25-7b-v0.1)で既に紹介しております。記事では、特にNeMoフレームワークにおける蒸留の仕組みと、NeMoで大規模なモデルを効率的に蒸留する際の技術的課題およびABEJAではどのように実装したかについて紹

    小型LLM「ABEJA Qwen2.5-7B Model」学習のための蒸留のパイプライン並列化 - ABEJA Tech Blog
    sh19910711
    sh19910711 2025/05/27
    "学習済みの小型モデルをベースとして蒸留を行い、その上でChatVectorを適用する方針 / 出力のsoft targetをloss関数として使う方法や、中間層の出力を合わせる方法(intermediate layer matching)"
  • DistillerでDeepLearningのモデルを軽量化: Gradual Pruning編 - tkato’s blog

    DeepLearningのモデル軽量化の気になっていたライブラリを使ってみました。今回はざっくりと導入の仕方と簡単な使い方、ライブラリの仕組みなどを調べた内容を書きたいと思います。はじめて使う人のガイドになればと思います。 IntelのNeural Network Distiller。pruningや8-bit quantizationなど軽量化アルゴリズムのフレームワーク。PyTorchのモデルを軽量化してONNX出力。TensorBoardと連携したモニタリングもできて使い勝手良さそう。https://t.co/5qm2IoUuuA— tkato (@_tkato_) 2018年5月1日 Distillerとは PyTorch向けのモデル圧縮ライブラリです。以下のような特徴があります。 数種類の枝刈り(pruning), 量子化(quantization), 正則化(regulariz

    DistillerでDeepLearningのモデルを軽量化: Gradual Pruning編 - tkato’s blog
    sh19910711
    sh19910711 2025/05/27
    2018 / "よくあるpruningだと、学習済みモデルをpruningしてから再学習をする2つのstageを繰り返しますが、この方法では学習しながら絶対値の小さいWeightを0にする(マスクする)ことで、1回の学習の中でpruningまでしてしまう"
  • 相互情報量からみるDeep Learning

    Deep Learningの表現学習を情報量という観点で見てみる。 所属組織のしがらみがあるので公開情報に限定し自分の考察などは基記述しない まとめ 相互情報量使うといろいろおもしろ表現学習できるし汎化誤差にも関係ありそうだし、相互情報量大事だよ! おまけで相互情報量を計算するサンプルコード載せたよ! 相互情報量とは? 2つの確率変数XとYの情報がどれだけかぶっていないかを表す指標で以下で定義される I\left(X;Y\right)\equiv D_{{\rm KL}}\left(p\left(x,y\right)||p\left(x\right)p\left(y\right)\right)=\iint p\left(x,y\right)\log\frac{p\left(x,y\right)}{p\left(x\right)p\left(y\right)}dxdy ここでD_{\rm{

    相互情報量からみるDeep Learning
    sh19910711
    sh19910711 2025/05/27
    2021 / "相互情報量による縛りを用いるとdisentangle表現と呼ばれる面白い表現学習ができる / 通常の分散表現とは異なり、1つの意味が1つの隠れ変数の次元で表されている表現 / transfer learning(特にzero shot)に向いている"
  • MPR(Mean Percentage Ranking)〜暗黙的にユーザの嗜好を得られるレコメンドシステムにおけるオフライン評価指標の紹介

    Precisionベースの測定指標はユーザにとってどれくらいレコメンド結果が望ましくないかを図る指標です。 確かに、レコメンドしたアイテムがユーザにとって望ましいかったのか、そうでなかったのかはAmazonで商品を評価するために☆をつけたり、Youtubeでgoodボタンやbadボタンを押したりといった、レコメンド結果に対する明示的な評価がないとわかりません。 MPRの定義MPRの定義は以下になります。 $$ MPR = \frac{\sum_{u \in U}\sum_{i \in l(u)} r_{u,i} \overline{rank_{u,i}}}{\sum_{u \in U}\sum_{i \in w(u)} r_{u,i}} $$ \( U \) はユーザの集合\( l(u) \) はユーザ \( u \) へのレコメンドしたアイテムの集合\( r_{u,i} \) はユーザ

    MPR(Mean Percentage Ranking)〜暗黙的にユーザの嗜好を得られるレコメンドシステムにおけるオフライン評価指標の紹介
    sh19910711
    sh19910711 2025/05/27
    2020 / "レコメンドに対するユーザの反応を明示的に追跡できない場合(暗黙的にしか得られない)はPrecisionベースの測定指標は不適切 / MPRは順位付けされたレコメンド結果に対するユーザの満足度を測定"
  • ざっくりTabMを知る

    sh19910711
    sh19910711 2025/05/20
    "BatchEnsemble: 大部分のパラメータを共通土台として共有し、一部だけ別々に枝分かれさせる / 1回の入力でk個のサブMLPが並列動作し、それぞれ別々の予測値(出力)を返す"
  • 【論文要約】FederBoost: Private Federated Learning for GBDT - 名前はまだない

    はじめに Federated Learningに興味があり色々確認していたのですが、決定木ベースのモデルはないのかと思うようになりました。 探してみると以下の論文が出てきたので、読みました。 メモとしてここで簡単にまとめます。 arxiv.org はじめに 概要 イントロ 事前知識 GBDT Federated learning Secure aggregation Differential privacy 設定 環境の設定 FLの設定 Vertical FederBoost 学習 バスケット化 差分プライバシーノイズ付加 学習の全体像 推論 プライバシー保護について Horizontal FederBoost 分散バケット構築 学習 プライバシー保護について 実装と実験 有用性の検証 効率性の確認 LAN設定の場合の結果 WAN設定の場合の結果 概要 Federated Learning

    【論文要約】FederBoost: Private Federated Learning for GBDT - 名前はまだない
    sh19910711
    sh19910711 2025/05/20
    2022 / "差分プライバシー: 各個人のデータを保護しながら統計的分析を可能する手法/分野 + 各個人/ノードのデータに対して乱数により発生させたノイズを負荷することで可能になる"
  • DeepLabV3を使った商品棚のSemantic Segmenation - Safie Engineers' Blog!

    こんにちは。セーフィーで画像認識エンジニアをやっている柏木です。 今回はセーフィーで行ったPoC (Proof of Concept) の一つである、商品棚のSemantic Segmentationについて紹介いたします! 背景と課題 Semantic Segmentation DeepLabV3 データセットとアノテーション MMSegmentationを使った学習 データセットClassの作成 データセットConfigの作成 学習・テストConfigの作成 環境 学習 評価結果 終わりに 背景と課題 大手スーパーマーケット様より、商品棚の欠品状況を解析したいとのお話がありました。欠品の状況が解析できれば、品出しのタイミングを最適化し、機会損失を削減することができます。イメージングチームではこれらの課題を解決すべく、PoCを行ってみることとしました! こちらが実際の商品棚の写真になりま

    DeepLabV3を使った商品棚のSemantic Segmenation - Safie Engineers' Blog!
    sh19910711
    sh19910711 2025/05/20
    2023 / "DeepLabV3: Googleが2017年に発表 + Atrous畳み込みを直列に何層も重ね、またAtrous rateを変えて並列に繋げた / MMSegmentation: DeepLabV3に限らず多くのモデルが実装されており、バックボーンも豊富"