並び順

ブックマーク数

期間指定

  • から
  • まで

481 - 520 件 / 719件

新着順 人気順

*algorithmの検索結果481 - 520 件 / 719件

  • しゃくとり法のDequeを使ったバグりにくい実装 - Qiita

    この記事の目的 しゃくとり法のバグりにくい実装の紹介です! しゃくとり法(尺取り法)って? しゃくとり法の説明自体は、とってもいいまとめがあるのでこちらをご覧ください。 しゃくとり法 (尺取り法) の解説と、それを用いる問題のまとめ でも、しゃくとり法ってバグりません? しゃくとり法っていざ書いてみるとかなりの確率でバグります。 区間の端を表す添え字 $l$ と $r$ の動かし方が結構混乱します。 この記事ではdeque(両端キュー)を使った実装を紹介します。 なんとこの実装では添え字を使う必要がありません! deque(両端キュー)によるしゃくとり法の実装 次の問題を例にとって説明します。 ABC 032 C - 列 長さ $n$ の整数列 $A = \{a_1, a_2,..., a_n\}$の連続部分列で、その要素の積が $K$ 以下となるものの長さの最大値を求める問題です。 次の

      しゃくとり法のDequeを使ったバグりにくい実装 - Qiita
    • "Item Recommendation from Implicit Feedback"の紹介 | | AI tech studio

      AILab Creative Researchチームの富樫です。 このブログでは先月末にarxivに投稿された“Item Recommendation from Implicit Feedback”[1]という論文を軸に紹介しつつ、 周辺分野の話題について議論したいと思います。 この論文はitem推薦というタスクにおける手法の各種パラダイムの概観をコンパクトに解説した教科書的内容になっています。 著者はBayesian Personalized Ranking (BPR)[2]を開発したGoogle Research所属のSteffen Rendle氏であり、 長年この分野を開拓してきた権威の一人です。 元論文の内容は元論文を読めばわかることですし、 蛇足かもしれませんが、最近の研究との関連性や議論、個人的な感想などを示すことで、このブログが元論文に対する補足資料のようになることを目指した

        "Item Recommendation from Implicit Feedback"の紹介 | | AI tech studio
      • 日本語SPLADEモデルと学習コードのOSS公開

        はじめに こんにちは。株式会社ビズリーチの検索基盤グループで機械学習エンジニアをしているDatと申します。 求職者検索の高度化とセマンティック検索への挑戦 「ビズリーチ」では、企業と求職者との最適なマッチング機会を最大化するため、日々検索品質の向上に取り組んでいます。特に、求職者の職務経歴書や企業の求人票の複雑な内容を深く理解し、関連性の高い候補者を見つけ出すことは、プラットフォームのコアな課題です。この課題を解決するため、我々はセマンティック検索の開発を進めています。 セマンティック検索は、単語の一致だけでなく、意味的な類似性に基づいて結果を返す技術です。この技術のプロダクトへの展開において、我々は高精度かつ低レイテンシと高い解釈性というプロダクト要件を満たす検索モデルの採用が必要でした。その解決策として着目したのが、SPLADE (Sparse Lexical AnD Expansio

          日本語SPLADEモデルと学習コードのOSS公開
        • ボケて電笑戦への挑戦〜AIで画像大喜利〜

          ボケて電笑戦(AIによる画像大喜利)で作成したモデルについて紹介します。

            ボケて電笑戦への挑戦〜AIで画像大喜利〜
          • 機械学習技術を使った実際の研究開発プロジェクトについて | hassaku's blog

            まずはざっくり箇条書き。もっと説明すべきところは、そのうち別の記事にするかも。 あと本記事内容は、ある分野での機械学習案件における知見であって、そこまで汎用的なものではないかもしれない。 全体的な雰囲気 機械学習技術が必要になる仕事は全体の2割程度。よって、機械学習技術に精通していなくても活躍できる場面は多い。 むしろ、AutoMLや機械学習部分を自動化するようなフレームワークやツールが増えてきており、その他8割の方が今後は重要になるとも言える。 もちろん、その他作業を効率良く進めるためには、詳しいメンバーがいるに越したことはない。 だいたいの流れ 解こうとしている課題の理解 本当に機械学習必要としているのかも早めに議論が必要 データの理解 可視化とか色々して仮説を立てる準備を整える この時点でゴミデータの存在には気づいておくことが大事 仮説の検討 人がちょっと考えて解ける問題は、入出力前

            • NVIDIA Cosmos の世界基盤モデルによる合成データ生成入門 〜 Cosmos Predict 編 - ABEJA Tech Blog

              こんにちは!ABEJA で ABEJA Platform 開発を行っている坂井(@Yagami360)です。 今年の CES2025 にて、 NVIDIA から Cosmos という自動運転やロボティクス用のプラットフォームをリリースしたという発表が大々的にありました。 blogs.nvidia.co.jp CES 2025での NVIDIA 発表動画は、以下を見ていただければと思います(Cosmos以外にも色々発表しています) youtu.be Cosmos は、NVIDIA が提唱している「フィジカル AI」の開発を促進するプラットフォームであり「世界基盤モデル」なるものを使っているとのことで、何やら凄そうな印象を受け、NVIDIA Omniverse との違いも気になったので、実際に Cosmos を動かしながらその機能を確かめてみました。 なお、本記事の動画は全体的に画質が悪いです

                NVIDIA Cosmos の世界基盤モデルによる合成データ生成入門 〜 Cosmos Predict 編 - ABEJA Tech Blog
              • 【コード付き】画像用Transformerを利用して衛星画像の分類機械学習モデルを作成する | 宙畑

                色々な分野で応用され始めているTransformerの簡単な解説と実際に衛星画像を利用した雲判定機械学習モデルを作成していきます。 宙畑の2020年Kagglerのアンケート記事でも触れましたが、最近は自然言語処理で使われていたTransformerという技術が、自然言語処理以外の分野でも利用されるようになり、精度の高い結果を出すようになりました。 Kaggleランカーの9人に聞いた、2020年面白かったコンペ9選と論文9選 今回の記事では、Transformer や画像を扱うための Vision Transformer(ViT) についての簡単な解説をおこない、実際に ViT を利用して衛星画像の分類タスクを行います。コードはGoogle Colaboratory(GPU) 上で動かすことを想定していますので、すぐに実行できるようになっています。 Transformer Transfor

                  【コード付き】画像用Transformerを利用して衛星画像の分類機械学習モデルを作成する | 宙畑
                • 埋め込みベクトルを用いたSVMによる類似文検索の検証 | 株式会社AI Shift

                  はじめに こんにちは、AIチームの杉山です。 今回の記事では、QA検索などを行う際の文類似度の計算に、文の埋め込みベクトルを用いてknnで計算した場合とSVMを用いた場合の結果を簡易的ですが定量的に比較してみたいと思います。 動機としては、LangChainのRetrieverの実装にkNNだけでなくSVMを用いた実装が採用されており、その説明の中で以下のようにSVMの方が良いことが多いとされていたことでどれくらい性能が異なるかを確認したいと思ったためです。[1][2] TLDR in my experience it ~always works better to use an SVM instead of kNN, if you can afford the slight computational hit 具体的には、クエリ自身だけを1クラス、検索対象のドキュメント集合全体を別の1ク

                    埋め込みベクトルを用いたSVMによる類似文検索の検証 | 株式会社AI Shift
                  • TF-IDFの理論的な意味付けについて

                    はじめに TF-IDFは文章の特徴語を抽出するときに使われる関数だが、今までほとんどヒューリスティックだと思われていた。今回は、TF-IDFが既存の概念でいうと何に相当するかを考察したい。 既存研究 TF-IDFの理論的な意味付けでは調べると2000年に論文が出ていて、確率と情報量の積として考察している。調べた範囲ではTF-IDFを一つの概念として考察している論文等は見当たらなかった。 定義 D を文章集合、W を文章集合で使われている単語集合とすると、w ∈ W, d ∈ D について、d 内の w の割合を P(d,w)、D 内で w を含む文章の割合を Q(w) とすると、 TFIDF(d,w) := P(d,w) \log(1/Q(w)) である 既存の概念との関係 tf-idfは定義式を見る限りKL情報量(相互エントロピー)の式と似ていると気づく。KL情報量(相互エントロピー)と

                      TF-IDFの理論的な意味付けについて
                    • 自然言語処理における Active Learning - ELYZA Tech Blog

                      はじめまして,インターンの中村です。今回は,アノテーションコストを抑えつつも,高性能な機械学習モデルを学習するための手法である能動学習 (Active Learning) について,その自然言語処理における研究例を紹介したいと思います。特に,自然言語処理において,大量のラベルありデータを集めることが難しく,必要最低限のアノテーションで高性能なモデルを効率的に学習したいといった方にぜひ一読をお勧めしたい内容となっています。 はじめに 深層学習の課題 Active Learningとは Active Learningの概要 1. ラベルなしデータの選択方法 2. ラベルなしデータの抽出基準 自然言語処理における Active Learning テキスト分類における Active Learning 事前学習済みモデル以前の Active learning 事前学習済みモデルを使った Active

                        自然言語処理における Active Learning - ELYZA Tech Blog
                      • The Principles of Deep Learning Theory

                        This book develops an effective theory approach to understanding deep neural networks of practical relevance. Beginning from a first-principles component-level picture of networks, we explain how to determine an accurate description of the output of trained networks by solving layer-to-layer iteration equations and nonlinear learning dynamics. A main result is that the predictions of networks are

                        • Visual-Inertial Odometryが自動運転に与えるインパクトと応用への課題 - TIER IV Tech Blog

                          こんにちは、ティアフォーでVisual SLAMの研究開発をしている石田です。今回はVisual-Inertial Odometryという、カメラとIMU(慣性計測装置)を用いた経路推定手法を紹介し、これを自動運転に応用できた場合のインパクトと、応用までに乗り越えなければならない課題についてお話します。 走行経路の推定結果 なお、ティアフォーでは、「自動運転の民主化」をともに実現していく様々なエンジニア・リサーチャーを募集しています。もしご興味があればカジュアル面談も可能ですので以下のページからコンタクトいただければと思います。 tier4.jp 自動運転における自己位置推定 自己位置推定とは、名前のとおり車両やセンサーデバイスなどが地図の中でどこにいるのかを推定するための技術であり、自動運転において欠かせない要素のひとつです。自分がどこを走っているか把握できなければ迷子になってしまいます

                            Visual-Inertial Odometryが自動運転に与えるインパクトと応用への課題 - TIER IV Tech Blog
                          • trlxを用いた文書生成モデルの学習①~ILQL編~ | 株式会社AI Shift

                            こんにちは AIチームの戸田です 今回は最近話題のChatGPTの学習に使われているRLHF(Reinforcement Learning from Human Feedback)を行うことができる強化学習フレームワーク、trlxを使った文章生成を試してみたいと思います。 trlxは強化学習手法としてILQL(Implicit Language Q-Learning)とPPO(Proximal Policy Optimization)の2種類が用意されており、それに加えて通常の言語モデルの学習であるSFT(Supervised Fine-Tuning)も実装されています。 本記事では日本語感情分析データセットWRIMEのデータでILQLを使った学習を行い、PPOは次回の記事で試したいと思います。trlxライブラリを一通り動かすことを目的とし、パラメータ調整やデータクレンジングなどのより良い

                              trlxを用いた文書生成モデルの学習①~ILQL編~ | 株式会社AI Shift
                            • 点群処理Backbone Networkと点群の事前学習/表現学習

                              Spatial AI Network 勉強会 (2025/07/08)での発表スライドをアップデートして公開します.以前のように時間をつっこんでサーベイできてはいないのですが,自分なりの定点観測としての共有です. 図は各論文から引用しています. 内容に誤りなどあればお知らせ下さい.

                                点群処理Backbone Networkと点群の事前学習/表現学習
                              • 【AI】Deep Convolutional Autoencoderベースの教師なし異常箇所検知 - Qiita

                                Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに 前回「【AI】Deep Metric Learning」でDeep Metric Learningを用いた異常検知について紹介しました。 こちらも教師なし学習の枠組みであり、学習時には正常データのみを用いて、正常データの特徴量空間を学習。そして、未知データに対して、正常データで学習した空間からの逸脱度を基準に異常検知を行いました。 入力した画像が「正常」か「異常」かを高精度で自動判定してくれるのは良いのですが、画像全体での異常検知なので、「異常はわかったけど、どこが異常なの?」と聞きたくなるのが正直な所です。「異常です」とブザ

                                  【AI】Deep Convolutional Autoencoderベースの教師なし異常箇所検知 - Qiita
                                • 仕事ではじめる機械学習 第2版 - たけぞう瀕死ブログ

                                  トレジャーデータでの同僚である@chezouさんが著者に名を連ね、名著と名高い「仕事ではじめる機械学習」。恥ずかしながら第1版は読んでいなかったのですが改訂版が出たとのことでGW休暇中に読んでみました。 仕事ではじめる機械学習 第2版 作者:有賀 康顕,中山 心太,西林 孝発売日: 2021/04/23メディア: 単行本(ソフトカバー) 噂通りの名著というか怪著ですw タイトルの通り、機械学習のアルゴリズムだけでなく、学習結果の評価方法やデータの集め方、システム構成やモニタリングなど運用にあたって留意すべきことなど「業務として」機械学習に取り組みにあたって留意すべき事項が書かれています。果ては機械学習の導入にあたっての立ち回り方など割と身も蓋もない(けれども実際のところ重要な)ことまで堂々と書かれていて、日本ならではの面もあるかもしれませんが、オライリーからこんな本が出せるのかと感動すら覚

                                    仕事ではじめる機械学習 第2版 - たけぞう瀕死ブログ
                                  • 新たな学習方法!「教師あり」Contrastive Learningを解説! - Qiita

                                    0. 忙しい方へ Contrastive Learningにラベル情報を用いる教師ありCLを提案したよ 教師ありCLで用いる損失関数はSupCon(=Supervised Contrastive)という名前だよ 教師ありCLがクロスエントロピー損失を用いた通常の教師あり学習よりも高い性能を示したよ ImageNet/CIFAR-10/CIFAR-100の画像分類タスクでより高い分類精度を示したよ ハイパーパラメーター(e.g. 学習率)への高い安定性も示したよ ImageNet-Cへのロバスト性もより良いよ 1. 教師ありContrastive Learningの説明 1.1 Contrastive Learning 画像: "A Survey on Contrastive Self-supervised Learning", Jaiswal, A., Babu, A., Zadeh, M

                                      新たな学習方法!「教師あり」Contrastive Learningを解説! - Qiita
                                    • 深層学習と古典的画像アルゴリズムを組み合わせた類似画像検索内製化

                                      第63回 コンピュータビジョン勉強会@関東の発表資料。 https://kantocv.connpass.com/event/344139/ 概要: 世界182ヶ国に1100万人超の会員を有し、出品数630万品を超える CtoC EC サイト BUYMA を運営する株式会社エニグモにおいて、類…

                                        深層学習と古典的画像アルゴリズムを組み合わせた類似画像検索内製化
                                      • Instant NeRF の心臓、Multiresolution Hash Encoding をシンプルに実装しつつ2次元画像で試してみる - OPTiM TECH BLOG

                                        こんにちは、プラットフォーム事業部の河内です。最近は新オフィスを堪能しています。 さて、今年の 3 月に NVIDIA から Instant NeRF という手法が発表されました。 blogs.nvidia.co.jp NeRF がどんなものなのか、Instant NeRF が今までの手法と比べ何がすごいのかについては上記の記事でおおまかに掴めるかと思いますが、中身が気になるところです。 NVIDIA の記事中で Tiny CUDA Neural Networks ライブラリを使用とあるのでリポジトリを見てみると、どうやら TensorFlow や PyTorch を利用したものではなく、Instant NeRF の根幹となる手法のためにチューニングされたフレームワークのようです。 github.com リポジトリの README では 2 つの手法とその論文が引用されており、ひとつは "

                                          Instant NeRF の心臓、Multiresolution Hash Encoding をシンプルに実装しつつ2次元画像で試してみる - OPTiM TECH BLOG
                                        • ML Pipeline事始め – kedro(+notebook)とMLflow Trackingで始めるpipeline入門 – - GMOインターネットグループ グループ研究開発本部

                                          2020.07.06 ML Pipeline事始め – kedro(+notebook)とMLflow Trackingで始めるpipeline入門 – こんにちは。次世代システム研究室のT.S.です AI/機械学習が不可欠となった昨今、数多くの方がKaggleなどの分析コンペ参加から機械学習モデルの実験、そして本番環境への適用まで色々実施してらっしゃると思います。 私もその一員で、日々モデルの実験から本番機械学習基盤の構築まで色々な分野の機械学習関連業務に従事しております。 そうした中で(皆様も同じ悩みを抱えているかと思いますが)実験->本番適用->運用に渡って、色々な悩みを抱えています。 一例ですが、こん悩みがあります 実験を複数回繰り返した結果、実行結果とハイパパラメータの組み合わせがゴチャゴチャになる 実験時の処理がモジュール化していないため、処理順序の入れ替えや追加が困難 実験時

                                            ML Pipeline事始め – kedro(+notebook)とMLflow Trackingで始めるpipeline入門 – - GMOインターネットグループ グループ研究開発本部
                                          • ちょっとテクい検索ランキングをVespaで実現する - 人間だったら考えて

                                            この記事は何? Vespaの準備 Vespaにおけるランキングロジックの実装(rank-profile) ちょっとテクい検索ランキング集 検索結果をランダムに並び替える 検索時の時刻を利用して並び替える 検索リクエスト時にランキングで利用する値を渡す クエリとドキュメントのベクトル表現の内積をランキングに使う 機械学習モデルでランキングする まとめ 参考資料 この記事は何? 情報検索・検索技術 Advent Calendar 2021 - Adventarの4日目の記事です。 検索システムを開発・運用していると、検索ランキングの精度を改善したくなります。(なりますよね?) ElasticsearchやSolrでは、検索ランキングで使われるデフォルトのスコアとして、検索クエリとドキュメントのフィールドとのマッチ度(BM25)が使われます。 マッチ度だけでなく、ドキュメントの新しさや人気度を考

                                              ちょっとテクい検索ランキングをVespaで実現する - 人間だったら考えて
                                            • おすすめされた理由がわかるXAIレコメンドモデルを動画配信サービスログで試してみた - ENGINEERING BLOG ドコモ開発者ブログ

                                              はじめに 本記事はNTTドコモ R&D Advent Calendar 2022の20日目の記事です。 こんにちは。 NTTドコモ サービスイノベーション部の明石です。 私は業務でドコモが持つECサイトや動画配信サービスにおけるレコメンドシステムの研究開発をしております。 本記事では、レコメンドとは?という部分から、レコメンドされた内容の理由を説明するXAI(eXplainable AI)モデルの評価結果について述べます。 本記事の内容は情報処理学会所属、MBL研究会*1第104回発表会にて報告した内容*2を基に執筆しております。光栄なことに当発表会において優秀発表賞を頂くことができましたので、論文の方も是非ご覧になってください。 忙しい方向け レコメンドは様々なサービスで利用され、ユーザに合ったコンテンツを推薦します。 XAIとは、判断に至った理由を説明してくれるAIです。 レコメンドに

                                                おすすめされた理由がわかるXAIレコメンドモデルを動画配信サービスログで試してみた - ENGINEERING BLOG ドコモ開発者ブログ
                                              • Cohereの多言語用の埋め込みモデルを日本語で評価してみる - Ahogrammer

                                                Cohereが提供を開始した多言語用のテキスト埋め込み用のモデルであるembed-multilingual-v3.0の性能を日本語の文類似度と検索のデータセットで評価してみました。 Cohere Embed v3とは CohereのEmbed v3はテキストを埋め込むためのモデルです[1]。これまでもv2モデルがありましたが、それと比べた主な改良点は、単純に性能が向上していることに加えて、コンテンツの全体的な品質を評価する機能が挙げられます。この機能はノイズの多いデータセットを扱う場合に役立ち、品質の高い文書を上位にランク付けすることができとしています。さらに、圧縮を考慮した特別な学習方法を実装しており、ベクトルデータベースの実行コストを大幅に削減できるとしています。この機能の詳細については、近日中に公開とのことです。 画像はhttps://txt.cohere.com/introduci

                                                  Cohereの多言語用の埋め込みモデルを日本語で評価してみる - Ahogrammer
                                                • AtCoderで青色になったので、yukicoderをお勧めしてみる - Qiita

                                                  Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 概要 AtCoderのコンテストに参加してから2年とちょっとの時間をかけて青色コーダーになりましたH20と申します。 この記事はいわゆる色変記事ですが、yukicoderへの参加を促す目的がメインとなっています。 まだyukicoderに登録していない人や、登録した後あまり問題を解いてない人が、この記事を機にyukicoderを利用していただければと考えています。 欲を言えば作問にも興味を持ってもらえるとなお嬉しいです。(さらに強欲になれば5/20に開催する予定のコンテストの参加も…ってちょっと強引だったですか) はじめに 競技プログラ

                                                    AtCoderで青色になったので、yukicoderをお勧めしてみる - Qiita
                                                  • Transformerにおける相対位置エンコーディングを理解する。 - Qiita

                                                    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 自然言語処理を中心に近年様々な分野にて成功を納めているTransformerでは、入力トークンの位置情報をモデルに考慮させるために「positional encoding(位置エンコーディング)」と呼ばれる処理が必要になります。 この位置エンコーディングは通常、トークン系列の開始時点を基準とした絶対的な位置情報を埋め込みます。 しかし、タスクによってはトークンの絶対的な位置ではなくトークン間の相対的な位置関係をモデルに考慮させたい場合もあると思います。 そういった需要に応えるため、トークン間の相対的な位置を考慮した位置エンコーディング技

                                                      Transformerにおける相対位置エンコーディングを理解する。 - Qiita
                                                    • 社内勉強会で使用したSimCSEのチュートリアル資料を公開しました - LegalOn Technologies Engineering Blog

                                                      こんにちは、LegalOn Technologies Researchで研究員をしている神田(@kampersanda)です。 弊社では、検索チーム主催でセマンティック検索とベクトル検索に関する社内勉強会を定期的に実施しています。この勉強会では、技術に関心のあるエンジニアが有志で議題を持ち寄り、知識共有を行っています。 その成果のひとつとして、文埋め込み技術であるSimCSEのチュートリアル資料を作成し、以下に公開しました。 github.com この資料はNotebookとして作成されており、SimCSEの学習から評価までの一連の動作を簡単に試して頂くことができます。また、コードの各パートには詳細なコメントや引用を付与しています。 本記事では、資料作成の目的や方法などを簡単に紹介します。チュートリアルの内容については、Notebookをご参照ください。 SimCSEの概要 SimCSEは

                                                        社内勉強会で使用したSimCSEのチュートリアル資料を公開しました - LegalOn Technologies Engineering Blog
                                                      • 検索性能を改善するハイブリッド検索で使えるランク融合アルゴリズム - Ahogrammer

                                                        Risk-Reward Trade-offs in Rank Fusionを読んでいて、検索システムの結果を統合するために使える教師なしのランク融合アルゴリズムについて書きたくなったのでまとめました。最近では、RAGの性能を改善するためにハイブリッド検索が使われることがありますが、その内部で各検索システムの結果を統合するために使うことができます。実際に計算する方法と合わせて紹介します。 記事の構成は以下のとおりです。最初に、検索の文脈からランク融合アルゴリズムについて例を交えて紹介した後、実際に計算する方法を紹介します。 アルゴリズム CombSUM CombMNZ Borda RRF 実際に計算したいときは? 参考資料 アルゴリズム 本記事で紹介するアルゴリズムはスコアベースと順位ベースの2つに分けられます。スコアベースのアルゴリズムは、検索システムが出力するスコアを利用するのが特徴的で

                                                          検索性能を改善するハイブリッド検索で使えるランク融合アルゴリズム - Ahogrammer
                                                        • 最強DB講義 #35 大規模言語モデルに基づく検索モデル

                                                          BERTやGPTなどの大規模言語モデルに基づく検索モデルは、様々なテストコレクションにおいて優れた性能を発揮し多くの注目を集めている。これまでに様々な検索モデルが提案されてきており、大規模言語モデルの情報検索への適用は、実サービスにおいても一般的なものとなっている。本講義では、大規模言語モデルを利用した…

                                                            最強DB講義 #35 大規模言語モデルに基づく検索モデル
                                                          • GitHub - neonbjb/tortoise-tts: A multi-voice TTS system trained with an emphasis on quality

                                                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                              GitHub - neonbjb/tortoise-tts: A multi-voice TTS system trained with an emphasis on quality
                                                            • MLflow と ONNX で実現するクラウドネイティブな MLOps

                                                              2021年8月25日(水) MLOps Community での講演資料 第10回 MLOps 勉強会(Online) ~機械学習基盤~ https://mlops.connpass.com/event/218772/

                                                                MLflow と ONNX で実現するクラウドネイティブな MLOps
                                                              • より多くの “気づき” を届ける- 世界中のテキストの構造化に挑む Knowledge Unit の紹介 -

                                                                より多くの “気づき” を届ける- 世界中のテキストの構造化に挑む Knowledge Unit の紹介 -

                                                                  より多くの “気づき” を届ける- 世界中のテキストの構造化に挑む Knowledge Unit の紹介 -
                                                                • グラフニューラルネットワーク(GNN; Graph Neural Network)入門 - あつまれ統計の森

                                                                  前提知識 Transformerとグラフニューラルネットワーク 下記で詳しく取り扱いました。当記事は下記の副読的な内容になるように取りまとめました。 「Transformer=グラフニューラルネットワーク+ネットワーク分析」と大まかに解釈できるので、当記事ではグラフニューラルネットワークについて詳しく取り扱います。 集合と要素 グラフ理論では基本的に数ⅠAの「集合」で取り扱われる内容を元に立式されます。当項では「集合」の基本的な式表記の確認を行います。たとえばサイコロの出目の$1$〜$6$の集合を$X$とおくとき$X$は下記のように定義できます。 $$ \large \begin{align} X = \{ 1, 2, 3, 4, 5, 6 \} \end{align} $$ このとき$X$の要素を$x$とおくと、$x \in X$のように表すことができます。$x \in X$は$x$が$

                                                                    グラフニューラルネットワーク(GNN; Graph Neural Network)入門 - あつまれ統計の森
                                                                  • ミニマルな機械学習の実験管理を目指して

                                                                    (追記 (2021/12/30): ここで述べた方法を実践するための Python パッケージ luigiflow を公開しました。) (この記事は私が書いた英語版の記事 Toward the minimalism of machine learning experiment workflows を私自身が翻訳したものです。 元記事の作成にあたり友人の Sajjadur Rahman と Sara Evensen にフィードバックをいただいたことを感謝します。) 本記事は、ストックマーク Advent Calendar 2021 の 15 日目の記事です。 機械学習分野の研究者やエンジニアの多くにとって実験は業務の大きなコストを占めます。 そのため実験環境の構築が業務のパフォーマンスに直結することは言うまでもありません。 それと関連して近年 MLOps への注目が非常に高まっていますが、

                                                                    • 画像をハッシュ化しRDBMSに記録し、SQLで類似画像を検索する - Qiita

                                                                      概要 大量の画像の中から類似画像を検索するソリューションを開発するとします。 類似画像を検索したいが、その都度ファイルを読み出したり、メモリに乗せて処理するのは速度やHWコスト面で大変です。 検索を容易にするためにはRDBMSを活用するのが楽です。 そのため今回は画像の形状パターンをハッシュ化して予めDBに登録しておき、検索したい画像のハッシュ値とSQLだけで類似画像を検索できるようにします。 画像の形状パターンをハッシュ化するには Avarage Hash(aHash) や Perceptual Hash(pHash) などの手法があります。 Avarage Hash 画像を8x8に縮小してグレースケール化した各点の輝度値の平均値を取り、その平均値と比べ各点大きいか小さいかで2値化して一列にすることで64bit値を取得します。 Perceptual Hash 画像を8x8より大きい適当な

                                                                        画像をハッシュ化しRDBMSに記録し、SQLで類似画像を検索する - Qiita
                                                                      • Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem (NAACL 2022)

                                                                        Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem (NAACL 2022) NLP コロキウム https://nlp-colloquium-jp.github.io/ で発表した際のスライドです。 論文: https://arxiv.org/abs/2205.01954 GitHub: https://github.com/joisino/wordtour 概要 単語埋め込みは現代の自然言語処理の中核技術のひとつで、文書分類や類似度測定をはじめとして、さまざまな場面で使用されていることは知っての通りです。しかし、ふつう埋め込み先は何百という高次元であり、使用する時には多くの時間やメモリを消費するうえに、高次元埋め込みを視覚的に表現できないため解釈が難しいことが問題です。そこで本研究で

                                                                          Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem (NAACL 2022)
                                                                        • ONNXファイルをテキスト形式に変換して直接編集する

                                                                          やりたいこと ONNX形式のファイルが手元にあって、ちょっとだけ直したい。できるだけ手軽に。 目的は、 Model Zoo等から入手したONNXファイルの、入出力の形式を変更したい(floatじゃなくてbyteにしたいとか) ONNXファイルA の出力がそのまま ONNXファイルB の入力になるので、2つをくっつけたい 等です。 方針 ONNXファイルを、バイナリ形式からテキスト形式に変換する 適当なテキストエディタで編集する テキスト形式からバイナリ形式に戻す バイナリ形式⇔テキスト形式の相互変換方法さえわかればできたも同然です。 準備 Protocol Buffer Compilerのダウンロード バイナリ形式⇔テキスト形式の変換にはProtocol Buffer Compilerを使います。というのも、そもそもONNXファイルはProtocol Bufferを使って定義された形式だか

                                                                            ONNXファイルをテキスト形式に変換して直接編集する
                                                                          • 機械学習の定番「サポートベクターマシン(SVM)」を高校生でもわかるよう解説 - Qiita

                                                                            はじめに 機械学習の定番アルゴリズムの1つである「サポートベクターマシン(SVM)」ですが、 実用的、かつ比較的シンプルなアルゴリズムから、入門書等でも取り上げられることが多いです。 ただし、解説の抜け漏れや、難解すぎる書籍や記事が多いと感じたので、備忘録も兼ねて ・網羅的 ・平易な説明 ・実データでの実装例あり(Pythonのライブラリscikit-learn(インストール法)を使用) を心がけ、高校生でも「理解した!」と言えるような記事を目指したいと思います。 注意 注意1 ・高校生でもわかると銘打ってしまったのに申し訳ありませんが、 高校で勉強しない(理系の大学1~2年で学習)偏微分の知識が出てきます。 大変分かりやすいYouTube動画があるので、こちらを見れば「理解した!」と言えるのではと思います。 偏微分 ラグランジュの未定乗数法 不等式条件のラグランジュの未定乗数法(KKT条

                                                                              機械学習の定番「サポートベクターマシン(SVM)」を高校生でもわかるよう解説 - Qiita
                                                                            • 自然言語処理と時系列を考慮した推薦システムの関係(Transformer4Rec) - GMOインターネットグループ グループ研究開発本部

                                                                              こんにちは。次世代システム研究室のT.Y.です。よろしくお願いします。 皆さん、推薦システム使っていますか? ここで使っていないと答える方はほぼいないのではないでしょうか。 わかりやすいところではSNSや動画サイト、ECサイトで使われていますが、その他にもニュースサイトやインターネット上の広告など、気づかないうちに様々な場所で我々は情報を推薦されています。 そんな推薦システムですが、実は機械学習の分野で推薦システムは自然言語処理と深い関わりがあるという話があります。こう言うと、「ニュースとかSNSとか、テキストを含んだ情報を推薦するのだから当たり前では?」と思われる方もいるかもしれません。 確かにテキスト情報は推薦システムを構築するときによく使う情報で、テキスト情報を扱うときには自然言語処理は欠かせないのですが、今回のお話はそういう関わりの話ではありません。 今回の話は、自然言語処理の機械

                                                                              • 【論文紹介コード付】 時系列Transformerを自然言語処理のお作法で鍛えたらゼロショットで未来の系列を予測することができました|斑鳩イカリング

                                                                                【論文紹介コード付】 時系列Transformerを自然言語処理のお作法で鍛えたらゼロショットで未来の系列を予測することができました タイトル:Chronos: Learning the Language of Time Series 著者:Abdul Fatir Ansari1∗ , Lorenzo Stella1∗ , Caner Turkmen1 , Xiyuan Zhang2† , Pedro Mercado1 , Huibin Shen1 , Oleksandr Shchur1 , Syama Sundar Rangapuram1 , Sebastian Pineda Arango3‡ , Shubham Kapoor1 , Jasper Zschiegner, Danielle C. Maddix1 , Michael W. Mahoney4 , Kari Torkkola4

                                                                                  【論文紹介コード付】 時系列Transformerを自然言語処理のお作法で鍛えたらゼロショットで未来の系列を予測することができました|斑鳩イカリング
                                                                                • RWKV14Bを日本語AlpacaデータセットでLoRAして公開しました(ご家庭で動く!?)|shi3z

                                                                                  布留川npaka大先生がRWKVのファインチューニングする方法を公開していたのだが、Google Colabでは7Bが限界で14Bは失敗したらしい。 人はいつでも、誰かのお役に立つチャンスを伺っている。 今こそ千載一遇のチャンス!ドスパラ様から我らがMemeplexのために開発していただいた、怒涛のA6000x2マシンが火を吹く時が来た!みんな!パソコン買うならドスパラ!AIやるならドスパラだぜ!忘れないでくれよな!(※ドスパラはMemeplexにスポンサーしています) 大先生がGoogle Colabで14Bの学習に失敗したのは、学習時のメインメモリの消費が80GBを超えてしまったからだそうだ。 ならば大丈夫。我らがドスパラ謹製Memeplexマシンは、A6000(VRAM48GB)を二枚搭載した上に、メインメモリは怒涛の256GB。もともとRAMディスクとして使うことを想定していたもの

                                                                                    RWKV14Bを日本語AlpacaデータセットでLoRAして公開しました(ご家庭で動く!?)|shi3z

                                                                                  新着記事