並び順

ブックマーク数

期間指定

  • から
  • まで

641 - 680 件 / 726件

新着順 人気順

*algorithmの検索結果641 - 680 件 / 726件

  • GAN, VAEに続く(隠れた)第3の深層生成モデル 「Flowベース生成モデル」の要点をつかむ - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 深層生成モデルとしては、__GAN (敵対的生成ネットワーク Generative Adversary Network)__と__VAE(変分オートエンコーダ Variational Auto Encoder)__の__2つ__がよく知られています。GANとVAEは、いまや、深層学習のトップスターです。 ところで、深層生成モデルのグループに括られるモデルとして、__Flowベース生成モデル (Flow-based generative models)__というものがあります。 __2014年にGoogle Brain在籍の研究者が提出し

      GAN, VAEに続く(隠れた)第3の深層生成モデル 「Flowベース生成モデル」の要点をつかむ - Qiita
    • 【音声合成】Matcha-TTS🍵で日本語音声を生成してみる

      初めに はじめまして、Toshikiです! 最近、拡散モデルより高速なFlow Matchingが画像や音声の生成に使用されてきています。 そこで、Flow Matchingの技術を音声合成に初めて適応したMatch-TTSという音声合成モデルを実際に動かしてみました! 本記事では、Match-TTSの各部の処理などに関して、簡単に解説します。論文を読んでみましたが理解し切れていない部分も多く、もし誤りなどあればコメントしていただけると嬉しいです! 拡散モデルとFlowMatching 拡散モデルは、画像生成やモーション生成、音声合成等の幅広い生成タスクにおいて、高品質な生成を達成している今流行りの手法です。拡散モデルでは、例えばデータ分布を正規分布へ段々と変換する等の拡散過程を定義して、その逆過程を辿る処理をベースにサンプルが行われますが、この逆過程を辿る際には多くの繰り返しの処理が必要

        【音声合成】Matcha-TTS🍵で日本語音声を生成してみる
      • gzip + kNN のテキスト分類で BERT 超え論文 "Low-Resource" Text Classification: A Parameter-Free Classification Method with Compressors を実装し試す - A Day in the Life

        最近公開された論文 “Low-Resource” Text Classification: A Parameter-Free Classification Method with Compressors (Jiang et al., Findings 2023) は、gzip で圧縮したデータの長さを活用し、テキスト分類課題で BERTよりも優れたパフォーマンスを発揮すると述べています。面白そうだったので、自分でこの方法を実装して試してみました。その結果、実際に livedoor ニュースコーパス を用いたテキストのカテゴリー分類では、日本語 BERTよりも優れた結果が出ました。 どんな手法なのか やっていることはシンプルで、まずNCD(Normalized compression distance)を算出します。例では圧縮アルゴリズムに gzip を使っています。 個々のデータxとyを圧

        • 自然言語処理の分散表現(Word2Vec,fastText)の課題 : 新規事業のつくり方

          単語分散表現とは、単語の意味をベクトルで表現することです。単語埋め込み(Word Embedding)とも呼ばれます。単語を100~300の次元数で表現することが多いです。 分散表現(+自然言語処理の主な手法も)は、単語の意味は周囲の単語で形成されるという分布仮説を前提にしています。 なので、Wikipediaなど大量のテキストデータ(コーパス)を学習させれば、単語の意味が表現できるということです。 例えばWord2Vecは、周辺の単語から中心語を推論する(逆に中心語から周辺の単語を推論する方法もあり)ことで、単語をベクトル表現しています。 コーパスを読み込ませるだけで学習できるので、実務的にも利便性の高い手法です。分散表現の学習済みモデルを公開している団体も多数あります。 単語分散表現の利用例:単語間の類似度計算 単語分散表現は、単語の意味をベクトル(数値)で表現できます。代表的な利用ケ

            自然言語処理の分散表現(Word2Vec,fastText)の課題 : 新規事業のつくり方
          • 小型LLM「ABEJA Qwen2.5-7B Model」学習のための蒸留のパイプライン並列化 - ABEJA Tech Blog

            はじめに こんにちは、Labsチームの藤本です。 弊社は、経済産業省とNEDOが実施する、国内の生成AIの開発力強化を目的としたプロジェクト「GENIAC(Generative AI Accelerator Challenge)」の1期に続き、2期にも採択され、そこで大規模言語モデルの開発を進めています。今回は、そのプロジェクトの中で実施した大規模言語モデルの蒸留(Knowledge Distillation)に関する技術的な取り組みをご紹介します。 本蒸留の成果については、以前の記事(https://tech-blog.abeja.asia/entry/geniac2-qwen25-7b-v0.1)で既に紹介しております。本記事では、特にNeMoフレームワークにおける蒸留の仕組みと、NeMoで大規模なモデルを効率的に蒸留する際の技術的課題およびABEJAではどのように実装したかについて紹

              小型LLM「ABEJA Qwen2.5-7B Model」学習のための蒸留のパイプライン並列化 - ABEJA Tech Blog
            • GENIAC第2期成果/データグリッド:汎用画像生成基盤モデルの軽量化のためのTransformersベースLDM—LocalDiT—の開発

              データ前処理: 元画像の中央を基準に1:1比率でクロップし、各解像度にリサイズしました。この処理によりアスペクト比の一貫性を保ちつつ、重要な被写体を中心に維持することができました。 効率的なデータパイプライン: WebDatasetフォーマットを採用し、NVIDIA DALIを使用した高速データローディングパイプラインを構築しました。これにより、I/Oボトルネックを最小限に抑え、GPUの稼働率を向上させることができました。 ただし、全解像度のデータを個別に保存する方式を採用したため、ディスク容量の不足や、データ移行に多大な時間を要するなどの課題も生じました。今後の改善点として、最高解像度(1Kや2K)のデータセットのみを保存し、学習時に動的にリサイズする戦略も検討価値があると考えています。 学習過程における特筆すべき観察点 学習過程で以下のような興味深い現象が観察されました: データ品質の

                GENIAC第2期成果/データグリッド:汎用画像生成基盤モデルの軽量化のためのTransformersベースLDM—LocalDiT—の開発
              • 2025年度 人工知能学会全国大会(第39回)参加報告 - Sansan Tech Blog

                こんにちは、Sansan株式会社 技術本部 研究開発部の田柳です。 2025年5月27日(火)〜30日(金)の4日間、大阪国際会議場(グランキューブ大阪)にて開催された 2025年度 人工知能学会全国大会(JSAI2025)に参加してきました。弊社はプラチナスポンサーとして協賛し、大田尾・黒木・竹長・田柳・山内が現地参加しました。 私自身、学生時代は経済学を専攻し、現在は契約書データのキーワード抽出技術の研究開発などに取り組んでいます。こうした機械学習系の学会への参加は今回が初めてで、多くの刺激を受けました。 本記事では、印象に残ったセッションや発表、そして会場の雰囲気などをレポートします。 ブースにて、写真左からでの田柳・竹長・大田尾 JSAI2025について 以下、JSAI2025の公式HPから引用します。 JSAI 2025は、人工知能学会(JSAI)が主催する日本最大級のAI学術イ

                  2025年度 人工知能学会全国大会(第39回)参加報告 - Sansan Tech Blog
                • 深層距離学習における平均場理論 - ZOZO TECH BLOG

                  はじめに こんにちは、ZOZO研究所AppliedMLチームの古澤です。私たちは商品画像の検索の基礎として、深層距離学習という技術を研究しています。本記事では、本研究所からICLR2024に採択された「Mean Field Theory in Deep Metric Learning」という研究について紹介します。対象読者としては、機械学習系のエンジニアや学生を想定しています。 目次 はじめに 目次 Notation 深層距離学習 磁性体と平均場理論 磁性体 平均場理論 磁性体と深層距離学習のアナロジー 深層学習への応用 Contrastive Loss ClassWiseMultiSimilarity Loss 実験 評価指標 データセット 実装の詳細 比較手法 定量評価 まとめ 参考文献・注釈 Notation この記事では以下のnotationを使用します。 訓練データ: 画像などの

                    深層距離学習における平均場理論 - ZOZO TECH BLOG
                  • 日本語GPT-2を強化学習(Policy Gradient)でfine-tuningする - Qiita

                    概要 本記事では言語モデルであるGPT-2を強化学習でfine-tuningしていきます.学習済みのGPT-2は分け隔てない大量の文章で学習されているため,標準的な文章の出力を行うように学習されています.この出力を我々が設定した価値関数などを使って,望む出力に歪められるのではないでしょうか? 具体的に本記事では,日本語版のGPT-2をネガティブな文章ばかり出力するように報酬を設定した強化学習でファインチューニングしていきたいと思います! 関連事項 GPT-2 Transformerベースの自己回帰型の言語モデルで,言語の生成モデルです.自己回帰モデルは単語に対して次の単語を予測する処理を繰り返すことで,文章を生成することができます.単語予測にはGreedySearchやBeamSearch,サンプリングが使用されます.今回はこちらの学習済みモデルを使用させていただいております. 強化学習

                      日本語GPT-2を強化学習(Policy Gradient)でfine-tuningする - Qiita
                    • 日本語のテキストの意味に基づき音楽を推薦するシステムの開発

                      こんにちは。LINEヤフーで音楽情報処理の研究開発をしている蓮実です。 私たちのチームでは、音楽推薦システムの研究開発を行っています。今回はこの技術の概要についてお伝えいたします。なお、本記事の詳細な内容は日本音響学会第151回(2024年春季)研究発表会でも発表済みです。 検証に使ったデモの紹介 私たちが開発している音楽推薦システムは、テキストと音楽の関係を学習する対照学習を用いています。システム内部では、テキスト情報と音楽特徴量をひもづける、クロスモーダルの埋め込み空間を構築するように学習されたモデルを使用しています。推薦時には、ユーザーが入力したテキストの意味に近い音響特徴量を持つ音楽を埋め込み空間から探し出し、提示します。 上に示す検証に使ったデモでは、LINE MUSICの2023年間ランキング総合TOP100と、第74回 NHK紅白歌合戦 2023年に含まれる149曲の中から、

                        日本語のテキストの意味に基づき音楽を推薦するシステムの開発
                      • システム理論の続き - 音楽をネットワーク分析してみた - Qiita

                        [Cisco Advent Calendar 2020] (https://qiita.com/advent-calendar/2020/cisco) 第24日目! (今年は同志もさらに増え、[2枚目のCalendar] (https://qiita.com/advent-calendar/2020/cisco2)もあります!) 1. はじめに 2020年は何という年だったことでしょう。未曾有のパンデミックによって、東京オリンピックも、ベートーヴェン生誕250周年も、全て吹っ飛んでしまいました。これだけ科学技術が発達した現代においても、人間社会は見えない敵にはめっぽう弱い、ということを痛感させられます。ダニエル・カーネマンは、”What you see is all there is(WYSIATI, 見たものがすべて)" と言いましたが、確かに、我々は自分に見えるものしか見てないし、見え

                          システム理論の続き - 音楽をネットワーク分析してみた - Qiita
                        • Python: A versatile programming language for Web Development to Machine Learning

                          Guido van Rossum created Python programming language in the 1980s. The idea behind the Python programming language was to develop a general-purpose programming language that can be simple in syntax and easy for amateur developers to understand. Python is a programming language that has gained importance over time. Python is an extensive library that supports multiple use cases, from web developmen

                            Python: A versatile programming language for Web Development to Machine Learning
                          • 「事業等のリスク」文章分析 - Qiita

                            1.まとめ 有価証券報告書の中の「事業等のリスク」部分の文章を対象に企業がリスクとみている部分を可視化できないか試した。 2.流れ 前に作ったスクリプトなど利用して、有価証券報告書(だいたい2021年度)の「事業等のリスク」部分の文章を抽出(下記のような感じ) データ揃ってるなあと思ったら、この項目がちゃんと書かないとダメというのは始めて知りました 2 【事業等のリスク】有価証券報告書に記載した当社グループの事業の状況及び経理の状況等に関する事項のうち、経営者が連結会社の財政状態、経営成績及びキャッシュ・フローの状況に重要な影響を与える可能性があると認識している主要なリスクは、以下のとおりであります。なお、当社グループでは、事業等のリスクを、将来の経営成績に与えうる影響の程度は発生の蓋然性等に鑑みて、「特に重要なリスク」「重要なリスク」に分類しております。当社グループは、これらの重要なリス

                              「事業等のリスク」文章分析 - Qiita
                            • Jax/Flax × TransformersでBERTのfine-tuningをTPUで行う | 株式会社AI Shift

                              こんにちは AIチームの戸田です 以前、BERTをfine-tuningする際のTipsとして混合精度の利用や、Uniform Length Batchingをつかった学習効率化を紹介させていただきましたが、今回はTPUを使った高速化について紹介したいと思います。 Flax TPU対応というと、まずGoogleのTensorflowが思い浮かびますが、今回は同じGoogleのニューラルネット学習用フレームワークのFlaxを使います。 FlaxはTensorflowと比較して簡潔に、かつ柔軟に書くことができると言われており、huggingfaceのtransformersもv4.8.0からFlaxをサポートするようになっています。 JAX/Flax has joined the ranks of PyTorch and TensorFlow in 🤗Transformers! Versio

                                Jax/Flax × TransformersでBERTのfine-tuningをTPUで行う | 株式会社AI Shift
                              • Zennのレコメンド機能(For you)の裏側 - LLMとベクトル近傍検索を使った記事のレコメンドシステムの仕組み

                                はじめに Zennではこれまで、独自の集計方法により新着記事のランキング(Trending)を提供してきました。Zennの読者にはWeb開発系のユーザーが多く、TrendingにはWeb開発系の記事が上位になりやすい傾向がありました。 昨年実施したユーザーアンケートでは、「Trendingが自分にマッチしていない」という意見が一定数寄せられ、レコメンド機能を求めるユーザーが75%に上ることが判明しました。 読者層の多様化に伴う新たなニーズに応えるため、記事のレコメンド機能(For you)を開発することにしました。 左が Trending、右が For you 本記事では、Zennのレコメンドシステムで活用している、LLMとベクトル近傍検索を使った記事のレコメンドシステムの仕組みについて説明します。 方針の検討 一口にレコメンドと言っても、目的や適応箇所によって、その手法はさまざまです。大

                                  Zennのレコメンド機能(For you)の裏側 - LLMとベクトル近傍検索を使った記事のレコメンドシステムの仕組み
                                • 第2回:画像でないデータを画像として処理する

                                  AI技術チームの石川です。今回は、我々が発表した論文で使ったアイディアの一つである、「画像でないデータを画像として扱う」ことで画像分析用の手法を活用するという考え方について紹介したいと思います。画像認識や画像処理のために開発された手法やツールを活用することで、画像でないデータの分析を簡単に、高精度に行うことができる場合があります。ビジネスにおいては、以下のような場面で活用できる可能性があります。 製造業、商業、公共交通機関等での音声による異常検知 時系列の金融データ分析 画像データとCNN 画像認識はAI・機械学習の代表的なタスクのひとつであり、幅広く研究されています。ディープラーニングが注目されるきっかけの一つとなった画像認識コンペティションILSVRCはImageNetという大規模な写真データセットの分類精度を競うものでした。 ディープラーニングによる画像認識において、優れた性能を達成

                                    第2回:画像でないデータを画像として処理する
                                  • 動画認識における代表的なモデル・データセット(メタサーベイ)

                                    cvpaper.challenge の メタサーベイ発表スライドです。 cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ作成・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有します。 http://xpaperchallenge.org/cv/

                                      動画認識における代表的なモデル・データセット(メタサーベイ)
                                    • 天気予報とLDAで適切な季節数を求める 備忘録 - Qiita

                                      概要 日本には美しい四季があることが自慢らしい。しかし日本は亜熱帯地域にあるため雨季を加えなければならないのではなかろうか。 四季が適当か五季が適当か機械学習で吟味してみる。 クラスタリング手法は多くあるが天気予報を文章と捉えたとき、LDA(Latent Dirichlet Allocation)で納得の行くクラスタ数(季節数)を得ることができるのか。 本当は出力が確率分布なのでクラスタ内の各分布距離を計算しながらクラスタ数の落としどころを探す手法を試したかっただけ。確率分布ではAICやBICが使えないから。 そのときの備忘録 実施期間: 2022年6月 環境:Ubuntu20.04 LTS 1. パケージ LDAはgensimではなくscikit learnで作成する。確率分布距離はJensen-Shannon distanceをscipyのAPIで計る。 import numpy as

                                        天気予報とLDAで適切な季節数を求める 備忘録 - Qiita
                                      • SimCTG: テキスト生成におけるContrastive学習推論の解説・実装

                                        はじめに こんにちは、わっしーです。 画像・自然言語・音声に関する機械学習の研究開発やMLOpsを行っています。もし、機械学習に関して、ご相談があれば、@kwashizzzのアカウントまでDMしてください! これまでの、機械学習記事のまとめです。 本記事では、文章生成のモデルの生成テキストの不自然さや、望ましくない単語の繰り返しを抑える手法として、A Contrastive Framework for Neural Text Generationで提案されたSimCTG(a SIMple Contrastive framework for neural Text Generation)を紹介します。 また、論文の実装コードを参考にし、Encoder-Decoder形式の文章生成モデルであるT5にSimCTGを適用してみたので、実装方法を紹介します。 ※ 論文の実装コードには、GPT-2に適

                                          SimCTG: テキスト生成におけるContrastive学習推論の解説・実装
                                        • TorchDrift: drift detection for PyTorch — TorchDrift documentation

                                          Authors¶ TorchDrift is a joint project of Orobix Srl, Bergamo, Italy and MathInf GmbH, Garching b. München, Germany. The TorchDrift Team: Thomas Viehmann, Luca Antiga, Daniele Cortinovis, Lisa Lozza Acknowledgements¶ We were inspired by Failing Loudly: An Empirical Study of Methods for Detecting Dataset Shift, NeurIPS 2019 https://github.com/steverab/failing-loudly Hendrycks & Dietterich: Benchmar

                                          • 画像の回転などの変換処理が埋め込みベクトルに与える影響を確認してみた | DevelopersIO

                                            こんちには。 データアナリティクス事業本部 機械学習チームの中村(nokomoro3)です。 今回は小ネタですが、画像の反転や位置の違いが埋め込みベクトルにどの程度影響を与えるのか知りたかったので、本記事で試してみたいと思います。 使用する画像 ネコの画像をいらすとやから拝借しました。 こちらに対して、以下のような変換を加えてみます。 サイズ変更 回転 位置替え モノクロ化 そしてネコ以外の画像も比較のため、以下のイヌの画像も使ってみます。 これらの画像データを Titan Multimodal Embeddings で埋め込みベクトルに変換して、コサイン類似度を比較してみようと思います。 埋め込みモデルについて 使用する埋め込みモデルは以下を用います。 Amazon Titan Multimodal Embeddings G1 model - Amazon Bedrock こちらはテキス

                                              画像の回転などの変換処理が埋め込みベクトルに与える影響を確認してみた | DevelopersIO
                                            • 【音楽情報処理】Sonic Visualiserで音楽データのアノテーション 前編:Sonic visualiserの紹介 - Qiita

                                              Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Sonic visualiserを用いてアノテーションを行う方法の個人的な備忘録と,ラボの後輩がアノテーションに困った時用のとっかかりの記事として. 全2記事,前編(本記事)ではSonic visualiserの紹介,後編ではアノテーションの具体的な手順について紹介する予定. アノテーション 音楽音源データの解析タスク(コード識別,メロディ検出,音楽構造解析,自動採譜etc...)を行うには, 音源そのものと,正解のラベルが必要です. その正解のラベルを1から作る方法として,アノテーションを行う必要があります. 音源に対してアノテーショ

                                                【音楽情報処理】Sonic Visualiserで音楽データのアノテーション 前編:Sonic visualiserの紹介 - Qiita
                                              • Vertex AI Model Monitoring の概要  |  Google Cloud

                                                このページでは、Vertex AI Model Monitoring の概要について説明します。 モニタリングの概要 Vertex AI Model Monitoring を使用すると、必要に応じて、または定期的にモニタリング ジョブを実行して、表形式モデルの品質を追跡できます。アラートを設定している場合、指標が指定されたしきい値を超えると、Vertex AI Model Monitoring から通知が届きます。 たとえば、顧客のライフタイム バリューを予測するモデルがあるとします。顧客の習慣が変化すると、顧客の支出を予測する要因も変化します。そのため、モデルのトレーニングに以前使用した特徴と特徴値は、現在の予測には関連がない可能性があります。データのこの偏差はドリフトと呼ばれます。 Vertex AI Model Monitoring では、偏差が指定されたしきい値を超えるタイミングを

                                                  Vertex AI Model Monitoring の概要  |  Google Cloud
                                                • 集計作業のお悩みをAIで解決/第4話「文章自由回答データを効率的に集計する”教師なし学習AI”とは」|ミルコミ│運営マクロミル

                                                  前回は、意見や感想などの文章で記述された自由回答データの集計についてご紹介しました。今回はAIを活用して効率化するプロセスをご紹介します。 1.「教師なし学習AI」で行われる処理 今回もアンケートで得られた「作りたてコーヒーサービスがあったら利用したいか」という質問に対する以下のような文章での自由回答データを使用します。前回はアフターコーディングを人の手で行う方法をご紹介しましたが、今回はAIでアフターコーディングを効率的に行う過程を解説していきます。 今回は「教師なし学習」という種類のAIを活用して、分類分けを行います。ここでは大きく分けて3つの処理を経て文章のデータを分類します。 ※教師なし学習の定義やAIの分類については第3話 をご参照ください。 (1)文章分解:形態素解析などで文章を細かく分解 (2)ベクトル化:分解した文章を「複数の数値の組」でデータ化 (3)クラスタリング:デー

                                                    集計作業のお悩みをAIで解決/第4話「文章自由回答データを効率的に集計する”教師なし学習AI”とは」|ミルコミ│運営マクロミル
                                                  • YANS2023に「機械学習モデルを用いた構造化文書からの情報抽出」で発表しました! - Money Forward Developers Blog

                                                    こんにちは、CTO室AI推進部のこたろうです。 今回は、8/30(水) ~ 8/31(木)の二日間を通して開催されたNLP若手の会(YANS)第18回シンポジウム(2023)に参加したのでその報告です! Money Forward CTO室AI推進部からは私と長期インターンの満石さん、Money Forward Labからは山岸さんが発表を行いました。 発表について Money Forwardからは3名がポスター発表を行いました。以下が発表題目と著者です(発表順となっています)。 [S1-P07] text embeddingを用いたデータ作成支援の検討, 満石風斗, 安立健人, 狩野芳伸 (静大) [S4-P10] 機械学習モデルを用いた構造化文書からの情報抽出, 竹下虎太朗, 安立健人, 狩野芳伸 (静大) [S5-P09] 財務諸表と仕訳データを用いた増減要因の説明文生成の初期検討,

                                                      YANS2023に「機械学習モデルを用いた構造化文書からの情報抽出」で発表しました! - Money Forward Developers Blog
                                                    • 推薦システムを本番導入する上で一番優先すべきだったこと~NewsPicks記事推薦機能の改善事例を元に~

                                                      本記事は、Recommendation Industry Talks #3での登壇資料です。 ソーシャル経済メディアNewsPicksでは、ユーザに価値のある経済情報を届けるための施策の一つとして記事推薦機能を導入しています。本発表では、NewsPicks記事推薦機能にて基盤改善がアルゴリズム改善…

                                                        推薦システムを本番導入する上で一番優先すべきだったこと~NewsPicks記事推薦機能の改善事例を元に~
                                                      • Federated Learning 連合学習

                                                        Regonn @関西Kaggler交流会 2023/03/24

                                                          Federated Learning 連合学習
                                                        • アノテーションのバイアス排除に関する2020年代の研究動向

                                                          社内LT会で発表した資料です。 内容はアノテーションのバイアス排除に関する近年の研究をざっくり紹介したものです。

                                                            アノテーションのバイアス排除に関する2020年代の研究動向
                                                          • 書籍レビューを用いた潜在表現の獲得とクラスタリングの実施 - rmizutaの日記

                                                            はじめに 書籍に関連する情報を用いてその潜在表現をうまく獲得することで、 以下のようなことができないかなーと考えています。 自身の読書済みの本と照らし合わせて カテゴリごとの網羅率の算出 本を読んだ時に得られる情報量の算出 該当の本の完読可能性の推定 本を読むための事前知識の十分性確認 今回のスコープ 書籍に関する情報の1つであるレビュー情報を用いて潜在表現を作成し、 クラスタリングを行うことでその有効性の確認を行います。 潜在表現の作成は以下の2通りの方法で行いました。 1.TFIDF+LDA 2.Sentence-BERT 実施したこと ブクログの2020年の登録者数の多い1000冊に対しレビューを取得、そこから30件以上レビューがある429冊に絞り30579件のレビューを元に書籍の潜在表現を生成しクラスタリングを行いました。 1.TFIDF+LDA TFIDFで単語の出現頻度を元にし

                                                              書籍レビューを用いた潜在表現の獲得とクラスタリングの実施 - rmizutaの日記
                                                            • 予測の不確実性を定量化できるConformal Predictionをサクッと解説する - Timee Product Team Blog

                                                              こんにちは、タイミーでデータサイエンティストとして働いている小栗です。 今回は、機械学習モデルの予測の不確実性を定量化する手法であるConformal Predictionについてご紹介します。 Conformal Predictionとは 機械学習モデルの予測値がどの程度信頼できるか知りたい場面は多いと思います。 医療診断のように誤った予測が重大な問題につながる状況でモデルを使用する場合、予測の不確実性を定量化してそれを元に判断できると嬉しいです。 Conformal Prediction(以下CP)はUncertainty Quantification(不確実性の定量化。以下UQ)のパラダイムの1つであり、モデルの予測値の集合/区間を統計的に厳密に作成します。 Conformal Predictionで生成される予測集合の例。出典: Angelopoulos, Bates (2022)

                                                                予測の不確実性を定量化できるConformal Predictionをサクッと解説する - Timee Product Team Blog
                                                              • Parquet+Petastormを使って画像分類モデルをSparkで学習させてみました! - CCCMKホールディングス TECH Labの Tech Blog

                                                                こんにちは、CCCMKホールディングス技術開発の三浦です。 最近寒い日が続いています。寒いと温かい飲み物が欲しくなりますが、近ごろは緑茶を飲むようになりました。お湯を入れたらすぐに飲むことが出来る粉末タイプのものもあって、気軽に楽しむことが出来ます。 今回の記事は分散処理フレームワークSpark周りについて調べた内容です。普段深層学習モデルの分散学習をDatabricksを通じ、Sparkクラスタで行っています。その中で最近少し引っかかっていたのが画像やテキストなどのモデル学習用データを読み取る処理がボトルネックになっている点でした。この部分をどう改善すれば良いのかなかなか分かりませんでした。 今のデータの入力処理は特にSparkの特徴を活かしきれているとは言えず、TensorFlowやPyTorchのDataLoaderを通じて都度画像ファイルやテキストファイルを読み込んでモデルに入力さ

                                                                  Parquet+Petastormを使って画像分類モデルをSparkで学習させてみました! - CCCMKホールディングス TECH Labの Tech Blog
                                                                • 相互情報量からみるDeep Learning

                                                                  Deep Learningの表現学習を情報量という観点で見てみる。 所属組織のしがらみがあるので公開情報に限定し自分の考察などは基本記述しない まとめ 相互情報量使うといろいろおもしろ表現学習できるし汎化誤差にも関係ありそうだし、相互情報量大事だよ! おまけで相互情報量を計算するサンプルコード載せたよ! 相互情報量とは? 2つの確率変数XとYの情報がどれだけかぶっていないかを表す指標で以下で定義される I\left(X;Y\right)\equiv D_{{\rm KL}}\left(p\left(x,y\right)||p\left(x\right)p\left(y\right)\right)=\iint p\left(x,y\right)\log\frac{p\left(x,y\right)}{p\left(x\right)p\left(y\right)}dxdy ここでD_{\rm{

                                                                    相互情報量からみるDeep Learning
                                                                  • Style-Bert-VITS2の差分マージで遊ぶ

                                                                    はじめに オープンソースな日本語音声合成 (TTS) であるStyle-Bert-VITS2の2024-06-16のver 2.6.0で、マージ機能に差分マージやヌルモデルマージが追加されました。 この記事は、これらのマージでできることをいろいろ紹介して、みんな実験して共有してみてね、という記事です。 注意 日本語特化版 (JP-Extra版) とそうでないモデル同士のマージはできません。 このページで共有している結果やモデルは全てJP-Extra版のものです。 差分マージとは? 通常のマージについて SBV2では、今まで以下の点で2つのモデルをマージすることができました: 声質(誰が喋っているか) 声の高さ 話し方・感情表現 話すリズム・テンポ 具体的には、2つのモデルを A, B とすると、スカラー weight について、 を、上記4つの要素が入っていると思われるモデルの重みについて

                                                                      Style-Bert-VITS2の差分マージで遊ぶ
                                                                    • 【論文要約】FederBoost: Private Federated Learning for GBDT - ⬜︎⬜︎⬜︎

                                                                      はじめに Federated Learningに興味があり色々確認していたのですが、決定木ベースのモデルはないのかと思うようになりました。 探してみると以下の論文が出てきたので、読みました。 メモとしてここで簡単にまとめます。 arxiv.org はじめに 概要 イントロ 事前知識 GBDT Federated learning Secure aggregation Differential privacy 設定 環境の設定 FLの設定 Vertical FederBoost 学習 バスケット化 差分プライバシーノイズ付加 学習の全体像 推論 プライバシー保護について Horizontal FederBoost 分散バケット構築 学習 プライバシー保護について 実装と実験 有用性の検証 効率性の確認 LAN設定の場合の結果 WAN設定の場合の結果 概要 Federated Learning

                                                                        【論文要約】FederBoost: Private Federated Learning for GBDT - ⬜︎⬜︎⬜︎
                                                                      • 【GradCAM】ResNetで学習させた都市景観画像の判断根拠 - Qiita

                                                                        概要 私事で恐縮ながら、社会人になって一人暮らしを始めました。 今住んでいるのは都心の近くなのですが、実家は郊外なので、それぞれの景観は異なってきます。路地を歩いているとなんとなく街並みが○○区っぽいな、とか、ここは○○市らしいなとか、感じたことがある方も多いと思います。 とはいえ、その差は結構微々たるもので、その市区町村にあるな”雰囲気”の差のようなものがある気がします。 今回は東京都の町田市と中央区の画像を教師あり学習で識別モデルを学習し、GradCAMを用いて判断根拠が何なのか確認してみます。 モデルには定番のResNetを用います。 実装や詳細は下記のサイト(M3 Tech Blog様)を参考にさせていただきました。 機械学習で逆ストリートビューを作り、写真から港区らしさを判定する ご指摘・疑問などございましたらコメントよろしくお願いいたします。 学習 上記のようなモデルを考えます

                                                                          【GradCAM】ResNetで学習させた都市景観画像の判断根拠 - Qiita
                                                                        • スコアベース拡散モデルの概要 - ころがる狸

                                                                          こんにちは。前回に引き続き、拡散モデルに関する話題を取り上げます。拡散モデルとはGoogleのImagen等に活用されている話題の生成モデルであり、一部のタスクでは最も研究が進んでいる生成モデルGAN(敵対的生成ネットワーク)の最高性能を上回ることが報告されています。拡散モデルにはスコアベースモデル、拡散確率モデルなど幾つかのタイプがありますが、今回はスコアベースモデルについて解説を行います[1,2,3,4]。 以下は、スコアベースモデルによる画像生成の実例です。人間の目にはフェイクであることが分からないほどの精度で、画像が生成できています。 socre based modelによる画像生成例(出典[4]) エネルギーベースモデルの復習 スコアベースモデルの概要 スコアマッチング スコアベースモデルの課題 多段階のノイズ付加 更なる改良 おわりに 出典 エネルギーベースモデルの復習 スコア

                                                                            スコアベース拡散モデルの概要 - ころがる狸
                                                                          • spaCyを用いて日本語の固有表現抽出(NER)モデルを学習する - Sansan Tech Blog

                                                                            はじめに 最近、固有表現抽出(Named Entity Recognition: NER)の学習をspaCyを用いて行う機会があったため、そのやり方について簡単にまとめたいと思います。 Ref spacy.io Version python: 3.11.3 spaCy: 3.6.0 使用したNotebook github.com 全体の流れ 学習データの用意 spaCyのconfigファイルの用意 学習 評価 推論 学習データの用意 今回は、ストックマーク株式会社が公開しているWikipediaを用いた日本語の固有表現抽出データセットを利用します。 まずはデータセットを読み込みます。 with open("../ner-wikipedia-dataset/ner.json") as f: stockmark_data = json.load(f) 次にデータセットを、train, dev,

                                                                              spaCyを用いて日本語の固有表現抽出(NER)モデルを学習する - Sansan Tech Blog
                                                                            • ニューラルネットワークの量子化手法の紹介

                                                                              ニューラルネットワークにおける量子化とLLMや混合精度などの最近のトピックに関して紹介します。

                                                                                ニューラルネットワークの量子化手法の紹介
                                                                              • BlenderのGeometryNodesで機械学習モデルを動かしてみた|Melville

                                                                                機械学習モデル(ニューラルネットワーク)は、たくさんの数値に対して値をかけたり、足したり、合計したり…といった操作をすることで問題を解きます。 そしてGeometryNodesは、(本来は3Dモデリングやモーショングラフィックスのための機能ですが、)たくさんの頂点(ジオメトリ)に対して値をかけたり、足したり、合計したり…といった操作が可能です。 ということは機械学習モデルをGeometryNodesで動かすこともできそうですよね。 実際、動かせました。 すみません!本来出力にSoftMaxをかけるべきところを、いれていませんでした! (出力の値は変わっていないのですが、可視化の印象がだいぶ変わります) 撮りなおしたので、最初の動画のことは忘れてこちらをご覧ください…!🙇 pic.twitter.com/fowj9Tm8lL — Melville (@MelvilleTw) Novembe

                                                                                  BlenderのGeometryNodesで機械学習モデルを動かしてみた|Melville
                                                                                • ONNXモデルのチューニングテクニック (応用編2)

                                                                                  サイバーエージェント AI Lab の Human Computer Interaction Team に所属している兵頭です。今回は私が半年ほど蓄積したONNXのチューニングテクニックを全てブログに残したいと思います。皆さんが既にご存知であろう基本的なことから、かなりトリッキーなチューニングまで幅広くご紹介したいと思います。長文になりますがご容赦願います。今回は応用編2です。 8. 各種トリック PyTorchやTensorFlowを経由して生成されたONNXから他のフレームワークへモデルを転用する場合に有効な様々なトリック、ワークアラウンドをご紹介します。あまり真新しい知見ではありませんが、以下でご紹介するようなトリックが記事としてまとまっているものはあまり見かけませんのでご参考になれば幸いです。エンジニアよりもリサーチャーの方々に是非読んでいただきたい内容です。ほとんどの内容が地味で

                                                                                    ONNXモデルのチューニングテクニック (応用編2)

                                                                                  新着記事