並び順

ブックマーク数

期間指定

  • から
  • まで

401 - 440 件 / 542件

新着順 人気順

*algorithmの検索結果401 - 440 件 / 542件

  • 【機械学習】VITSでアニメ声へ変換できるボイスチェンジャー&読み上げ器を作った話 - Qiita

    はじめに DiscordやVRChatなど、オンラインでの会話を楽しむプラットフォームが近年賑わいを見せています。 そんな中で「さまざまな声質の音声で会話ができたら面白いだろう」と思い立ち、音声間での声質の変換ができる機械学習モデルを実装してみました。例えば以下の紹介動画のように変換できます。 機械学習の一手法「VITS」でアニメ声(つくよみちゃん)へ変換できるボイスチェンジャーを実装しました。https://t.co/LX0TV13uAD pic.twitter.com/vVWcDbUSpn — zassou (@zassouEX) February 25, 2022 また、今回用いたモデルではテキストの読み上げを実行することもできます。 読み上げを行うこともできます。 (こちらに関してはもう少しファインチューニングが必要そうです。) pic.twitter.com/xKPhTL7A0E

      【機械学習】VITSでアニメ声へ変換できるボイスチェンジャー&読み上げ器を作った話 - Qiita
    • AtCoderで青色になったので、yukicoderをお勧めしてみる - Qiita

      概要 AtCoderのコンテストに参加してから2年とちょっとの時間をかけて青色コーダーになりましたH20と申します。 この記事はいわゆる色変記事ですが、yukicoderへの参加を促す目的がメインとなっています。 まだyukicoderに登録していない人や、登録した後あまり問題を解いてない人が、この記事を機にyukicoderを利用していただければと考えています。 欲を言えば作問にも興味を持ってもらえるとなお嬉しいです。(さらに強欲になれば5/20に開催する予定のコンテストの参加も…ってちょっと強引だったですか) はじめに 競技プログラミングで楽しむ上で大事なのは、モチベーションを保つことだと考えています。 例えば、既存の問題を解く勉強を続け、コンテスト本番では新たに学んだアルゴリズムを利用して今まで解けなかった問題が解けるようになり、AtCoderのレートが上がるような好循環が続けばずっ

        AtCoderで青色になったので、yukicoderをお勧めしてみる - Qiita
      • 社内勉強会で使用したSimCSEのチュートリアル資料を公開しました - LegalOn Technologies Engineering Blog

        こんにちは、LegalOn Technologies Researchで研究員をしている神田(@kampersanda)です。 弊社では、検索チーム主催でセマンティック検索とベクトル検索に関する社内勉強会を定期的に実施しています。この勉強会では、技術に関心のあるエンジニアが有志で議題を持ち寄り、知識共有を行っています。 その成果のひとつとして、文埋め込み技術であるSimCSEのチュートリアル資料を作成し、以下に公開しました。 github.com この資料はNotebookとして作成されており、SimCSEの学習から評価までの一連の動作を簡単に試して頂くことができます。また、コードの各パートには詳細なコメントや引用を付与しています。 本記事では、資料作成の目的や方法などを簡単に紹介します。チュートリアルの内容については、Notebookをご参照ください。 SimCSEの概要 SimCSEは

          社内勉強会で使用したSimCSEのチュートリアル資料を公開しました - LegalOn Technologies Engineering Blog
        • 機械学習技術を使った実際の研究開発プロジェクトについて | hassaku's blog

          まずはざっくり箇条書き。もっと説明すべきところは、そのうち別の記事にするかも。 あと本記事内容は、ある分野での機械学習案件における知見であって、そこまで汎用的なものではないかもしれない。 全体的な雰囲気 機械学習技術が必要になる仕事は全体の2割程度。よって、機械学習技術に精通していなくても活躍できる場面は多い。 むしろ、AutoMLや機械学習部分を自動化するようなフレームワークやツールが増えてきており、その他8割の方が今後は重要になるとも言える。 もちろん、その他作業を効率良く進めるためには、詳しいメンバーがいるに越したことはない。 だいたいの流れ 解こうとしている課題の理解 本当に機械学習必要としているのかも早めに議論が必要 データの理解 可視化とか色々して仮説を立てる準備を整える この時点でゴミデータの存在には気づいておくことが大事 仮説の検討 人がちょっと考えて解ける問題は、入出力前

          • End-to-End Object Detection with Transformers (DETR) の解説 - Qiita

            最近、Arxiv Sanity Preserverで上位にランクインしていた、Facebookから20/5/27に公開のObject Detection論文 DETRについて解説する。 概要 NMSやRPN等のごちゃごちゃした仕組み無しで、CNN+Transformerの極めてシンプルな構成で真にEnd to Endな物体検出を実現する。 その上で、最近の最前線クラスの物体検出器に匹敵する性能を達成している。 (テクニカルに色々してるが、新規性は従来のRNNをTransformerに置き換えている所) このシンプルな構成のおかげで拡張が容易で、この論文ではDETR物体検出器をSegmentationタスクにも拡張し、SOTA級のアーキテクチャを上回る性能を叩き出している。 NMSをなくして、Transformer化に至るまでの背景 現在よく使われてる物体検出器では、処理の途中過程にあるNM

              End-to-End Object Detection with Transformers (DETR) の解説 - Qiita
            • より多くの “気づき” を届ける- 世界中のテキストの構造化に挑む Knowledge Unit の紹介 -

              より多くの “気づき” を届ける- 世界中のテキストの構造化に挑む Knowledge Unit の紹介 -

                より多くの “気づき” を届ける- 世界中のテキストの構造化に挑む Knowledge Unit の紹介 -
              • ミニマルな機械学習の実験管理を目指して

                (追記 (2021/12/30): ここで述べた方法を実践するための Python パッケージ luigiflow を公開しました。) (この記事は私が書いた英語版の記事 Toward the minimalism of machine learning experiment workflows を私自身が翻訳したものです。 元記事の作成にあたり友人の Sajjadur Rahman と Sara Evensen にフィードバックをいただいたことを感謝します。) 本記事は、ストックマーク Advent Calendar 2021 の 15 日目の記事です。 機械学習分野の研究者やエンジニアの多くにとって実験は業務の大きなコストを占めます。 そのため実験環境の構築が業務のパフォーマンスに直結することは言うまでもありません。 それと関連して近年 MLOps への注目が非常に高まっていますが、

                • グラフニューラルネットワーク(GNN; Graph Neural Network)入門 - あつまれ統計の森

                  前提知識 Transformerとグラフニューラルネットワーク 下記で詳しく取り扱いました。当記事は下記の副読的な内容になるように取りまとめました。 「Transformer=グラフニューラルネットワーク+ネットワーク分析」と大まかに解釈できるので、当記事ではグラフニューラルネットワークについて詳しく取り扱います。 集合と要素 グラフ理論では基本的に数ⅠAの「集合」で取り扱われる内容を元に立式されます。当項では「集合」の基本的な式表記の確認を行います。たとえばサイコロの出目の$1$〜$6$の集合を$X$とおくとき$X$は下記のように定義できます。 $$ \large \begin{align} X = \{ 1, 2, 3, 4, 5, 6 \} \end{align} $$ このとき$X$の要素を$x$とおくと、$x \in X$のように表すことができます。$x \in X$は$x$が$

                    グラフニューラルネットワーク(GNN; Graph Neural Network)入門 - あつまれ統計の森
                  • 画像をハッシュ化しRDBMSに記録し、SQLで類似画像を検索する - Qiita

                    概要 大量の画像の中から類似画像を検索するソリューションを開発するとします。 類似画像を検索したいが、その都度ファイルを読み出したり、メモリに乗せて処理するのは速度やHWコスト面で大変です。 検索を容易にするためにはRDBMSを活用するのが楽です。 そのため今回は画像の形状パターンをハッシュ化して予めDBに登録しておき、検索したい画像のハッシュ値とSQLだけで類似画像を検索できるようにします。 画像の形状パターンをハッシュ化するには Avarage Hash(aHash) や Perceptual Hash(pHash) などの手法があります。 Avarage Hash 画像を8x8に縮小してグレースケール化した各点の輝度値の平均値を取り、その平均値と比べ各点大きいか小さいかで2値化して一列にすることで64bit値を取得します。 Perceptual Hash 画像を8x8より大きい適当な

                      画像をハッシュ化しRDBMSに記録し、SQLで類似画像を検索する - Qiita
                    • 機械学習の定番「サポートベクターマシン(SVM)」を高校生でもわかるよう解説 - Qiita

                      はじめに 機械学習の定番アルゴリズムの1つである「サポートベクターマシン(SVM)」ですが、 実用的、かつ比較的シンプルなアルゴリズムから、入門書等でも取り上げられることが多いです。 ただし、解説の抜け漏れや、難解すぎる書籍や記事が多いと感じたので、備忘録も兼ねて ・網羅的 ・平易な説明 ・実データでの実装例あり(Pythonのライブラリscikit-learn(インストール法)を使用) を心がけ、高校生でも「理解した!」と言えるような記事を目指したいと思います。 注意 注意1 ・高校生でもわかると銘打ってしまったのに申し訳ありませんが、 高校で勉強しない(理系の大学1~2年で学習)偏微分の知識が出てきます。 大変分かりやすいYouTube動画があるので、こちらを見れば「理解した!」と言えるのではと思います。 偏微分 ラグランジュの未定乗数法 不等式条件のラグランジュの未定乗数法(KKT条

                        機械学習の定番「サポートベクターマシン(SVM)」を高校生でもわかるよう解説 - Qiita
                      • Professional ML Engineer Certification  |  Learn  |  Google Cloud

                        Accelerate your digital transformation Whether your business is early in its journey or well on its way to digital transformation, Google Cloud can help solve your toughest challenges.

                          Professional ML Engineer Certification  |  Learn  |  Google Cloud
                        • MLOps系プロダクトの布教活動報告 - Qiita

                          この記事はMLOps Advent Calendar 2021の18日目の記事です。 2016年にもTensorFlowとMLサービスの2016年の布教活動報告を書きましたが、ここ3年くらいはMLOps系の活動をメインにしてきたので、その報告です。COVID後はイベント登壇も減り、ブログ記事の執筆が多くなりました。その裏話的な内容です。 Feature Store のブログ記事 今年5月のGoogle I/OでVertex AIのMLOps系プロダクトがいくつかリリースされたので、その後にフォローアップのブログ記事を出し始めました。まずは6月にPMのAnandと書いた Kickstart your organization’s ML application development flywheel with the Vertex Feature Store(日本語版)です。 このプロダクト

                            MLOps系プロダクトの布教活動報告 - Qiita
                          • [論文紹介コード付] 時系列Transformerを自然言語処理のお作法で鍛えたらゼロショットで未来の系列を予測することができました|斑鳩イカリング

                            [論文紹介コード付] 時系列Transformerを自然言語処理のお作法で鍛えたらゼロショットで未来の系列を予測することができました タイトル:Chronos: Learning the Language of Time Series 著者:Abdul Fatir Ansari1∗ , Lorenzo Stella1∗ , Caner Turkmen1 , Xiyuan Zhang2† , Pedro Mercado1 , Huibin Shen1 , Oleksandr Shchur1 , Syama Sundar Rangapuram1 , Sebastian Pineda Arango3‡ , Shubham Kapoor1 , Jasper Zschiegner, Danielle C. Maddix1 , Michael W. Mahoney4 , Kari Torkkola4

                              [論文紹介コード付] 時系列Transformerを自然言語処理のお作法で鍛えたらゼロショットで未来の系列を予測することができました|斑鳩イカリング
                            • 微分可能レンダリング (CVIM研究会 チュートリアル)

                              https://docs.google.com/presentation/d/1nbyUBucCTFP2-sVLFeo2gP76L3EJTImMFXLmV7OifxI/edit?usp=sharing

                                微分可能レンダリング (CVIM研究会 チュートリアル)
                              • 最強DB講義 #35 大規模言語モデルに基づく検索モデル

                                BERTやGPTなどの大規模言語モデルに基づく検索モデルは、様々なテストコレクションにおいて優れた性能を発揮し多くの注目を集めている。これまでに様々な検索モデルが提案されてきており、大規模言語モデルの情報検索への適用は、実サービスにおいても一般的なものとなっている。本講義では、大規模言語モデルを利用した…

                                  最強DB講義 #35 大規模言語モデルに基づく検索モデル
                                • LLMを用いたSNSのテーマ推薦と投稿文の自動生成 | BLOG - DeNA Engineering

                                  はじめに はじめまして!2023年9月にAIスペシャリストのインターンシップに参加させていただきました、柳( @ynt0485 )と申します。普段は数理最適化や機械学習関連の研究を行っています。 今回のインターンでは、DeNAが運営するX(旧Twitter)アカウントの投稿文を自動生成するというタスクに取り組みました。この記事では、どのような工夫によって生成の精度を上げることができたのかについて紹介します ! 課題内容 概要 初めに、今回のタスクの概要についてお話します。 近年の大規模言語モデルの発展により、文章の自動生成は様々な分野での活用が期待されています。特に、ある分野に特化させた文章の生成はクリエイティブの制作やサービス専用のチャットボットの構築に利用することが できます。 そのため、今回は特定分野に特化させた文章生成の1つとして、あるX(旧Twitter)アカウントの過去の投稿文

                                    LLMを用いたSNSのテーマ推薦と投稿文の自動生成 | BLOG - DeNA Engineering
                                  • RWKV14Bを日本語AlpacaデータセットでLoRAして公開しました(ご家庭で動く!?)|shi3z

                                    布留川npaka大先生がRWKVのファインチューニングする方法を公開していたのだが、Google Colabでは7Bが限界で14Bは失敗したらしい。 人はいつでも、誰かのお役に立つチャンスを伺っている。 今こそ千載一遇のチャンス!ドスパラ様から我らがMemeplexのために開発していただいた、怒涛のA6000x2マシンが火を吹く時が来た!みんな!パソコン買うならドスパラ!AIやるならドスパラだぜ!忘れないでくれよな!(※ドスパラはMemeplexにスポンサーしています) 大先生がGoogle Colabで14Bの学習に失敗したのは、学習時のメインメモリの消費が80GBを超えてしまったからだそうだ。 ならば大丈夫。我らがドスパラ謹製Memeplexマシンは、A6000(VRAM48GB)を二枚搭載した上に、メインメモリは怒涛の256GB。もともとRAMディスクとして使うことを想定していたもの

                                      RWKV14Bを日本語AlpacaデータセットでLoRAして公開しました(ご家庭で動く!?)|shi3z
                                    • マイナーな正則化手法「ラベル平滑化」は実は効果アリアリらしい - Qiita

                                      教師あり学習のクラス分類タスクにおいては、既に様々な正則化手法が考案・実用化されています。 例えば、荷重減衰(Weight Decay)、ドロップアウト、バッチ正規化やレイヤー正規化などが知名度高いでしょう。 しかし「ラベル平滑化(Label Smoothing)」というのは、「あ~なんか聞いたことある」とか「何それ?」というくらい、認知度がありません。 なぜでしょう?実装は恐ろしいほど簡単で、ちゃんと 論文もある(※1) んですが。 ※1)「Rethinking the Inception Architecture for Computer Vision」のP6「7. Model Regularization via Label Smoothing」 本稿では、ラベル平滑化の正則化の効果をMNISTを使用して実験し、少なくともこの実験の条件下においては正則化の効果があることを示しています

                                        マイナーな正則化手法「ラベル平滑化」は実は効果アリアリらしい - Qiita
                                      • BERTopicで文章群をイイ感じで分類してみる - Qiita

                                        背景 最近、Mediumなどの記事でたびたび BERTopic という文字が目に飛び込んできていていました。 ネットリサーチの業務でアンケートのフリーアンサー(自由記述)設問の回答を"イイ感じで分類したい"ケースはよくあります。そのためBERTを利用し『集計作業のお悩みをAIで解決/第4話「文章自由回答データを効率的に集計する”教師なし学習AI”とは」』のように分類する機能を利用してきました。 NLPも他の機械学習と同様に「教師あり学習」と「教師無し学習」があり、「教師あり学習」は使いやすく結果の精度も安定した状態でツールとして運用できていて、もう数年もの間地道に利用されている状態です。しかし「教師あり学習」は教師データの学習というワンステップが必要なのと、この「教師データ」のクォリティにより使い物になるかどうかが決まってしまうという、幅広い一般のスタッフが実務としての運用するにはちょっと

                                          BERTopicで文章群をイイ感じで分類してみる - Qiita
                                        • 複数の関連度から検索可能な BGE M3-Embedding の紹介 - Algomatic Tech Blog

                                          こんにちは。Algomatic の宮脇(@catshun_)です。 本記事では文書検索において一部注目された BGE M3-Embedding について簡単に紹介します。 Chen+'24 - BGE M3-Embedding: Multi-Lingual, Multi-Functionality, Multi-Granularity Text Embeddings Through Self-Knowledge Distillation おことわり 本記事では精読レベルの 詳細な解説は含みません。 詳細については 参照元の論文をご確認ください。 不十分また不適切な言及内容がございましたらご指摘いただけますと幸いです。 プロダクト等の利用時は 必ずライセンスや利用規約を参照して下さい。 本記事で紹介する 論文 は Work in progress とコメントされており今後内容が更新される可能

                                            複数の関連度から検索可能な BGE M3-Embedding の紹介 - Algomatic Tech Blog
                                          • 業界に特化した新しい AI ツールでヘルスケアの生産性を改善 | Google Cloud 公式ブログ

                                            ※この投稿は米国時間 2020 年 11 月 11 日に、Google Cloud blog に投稿されたものの抄訳です。 COVID-19(新型コロナウイルス感染症)によって最前線の医療従事者の勇敢な奮闘が注目を集めました。しかし、医療データの管理と非構造化デジタル テキストの解釈に関する課題も浮き彫りになりました。医療従事者にとって、医療文書のレビューと作成のプロセスは非常に手間がかかる作業です。また、医療文書に固有の要件を支援するインテリジェントで使いやすいツールが存在しないため、データ収集のエラー、診療の質の低下、医師の疲弊を招きます。 本日は、こうした問題に役立つように設計されたフルマネージド AI ツールのスイートである、Healthcare Natural Language API と AutoML Entity Extraction for Healthcare を公開プレ

                                              業界に特化した新しい AI ツールでヘルスケアの生産性を改善 | Google Cloud 公式ブログ
                                            • Rasaとhuggingface/transformersを使って日本語の固有表現抽出する - もふもふ技術部

                                              以前にhuggingface/trasformersで固有表現抽出する方法を試してましたが、日本語ではうまく動かせませんでした。今回は日本語の言語モデルの上にファインチューニングして固有表現抽出出来るところまでやってみます。 前回: huggingfaceのtransformersでNER(named entity recognition)を試してみる huggningface/transformersのexampleのファインチューニングのコードがちょっと複雑だったのでどうしようかと思っていたら、どうやらRasaも対応しているらしいので、Rasaの上で動かしてみようと思います。 以前にRasaをいじっていたときの記事一覧 まずはRasaで日本語の固有表現抽出出来るところまで(Spacyを利用) huggingface/transformersを使用する まとめ 2020/04/29追記

                                                Rasaとhuggingface/transformersを使って日本語の固有表現抽出する - もふもふ技術部
                                              • Contrastive Learningの最新動向のレビュー - Morpho Tech Blog

                                                こんにちは。CTO室リサーチャーの鈴木です。今回は、深層学習の分野でここ数年盛り上がっているContrastive Learning系の手法について、主だった論文を系統的にまとめて紹介したいと思います。 はじめに 近年発展した自己教師あり学習(Self-Supervised Learning:SSL)は、アノテーション情報を人の手ではなく機械的に付与することで、データセットの構築にかかる時間やコストを軽減し、深層学習モデルの精度向上を目指した手法です。自然言語処理分野におけるSSLは大きな成功を収め、ChatGPT等の超高性能なチャットボットの出現にも影響を与えました。 SSLは主に深層学習モデルの「事前」学習として用いられます。SSLによって、文章や画像に含まれる一般的な特徴を大量のデータから学習することができます。これにより、文章生成や画像認識などの本学習の効率が向上し、最終的な性能向

                                                  Contrastive Learningの最新動向のレビュー - Morpho Tech Blog
                                                • バージョンが多すぎるYOLOについて語りたい - Sansan Tech Blog

                                                  本記事はSansan Advent Calendar 2024、18日目の記事です。 はじめに YOLOとは? 他の物体検出器と比べてみた 進化の軌跡 YOLOの考察 強みと特徴 課題と制約 YOLOの派生モデルと応用 なんでそんなにバージョンが多いの? でも、名前はずっとYOLOのままなんですけど? まとめ 参考文献 はじめに こんにちは、研究開発部 Automationグループの李欣耘(リキンウン)です。普段はBill Oneの請求書情報に関する作業効率改善に従事しています。 早いもので今年も残すところあと少しです。皆さまはいかがお過ごしでしょうか。先日あざだらけでREDLINEから帰ってきた私は、今年トータル31本のフェスやライブも行ったせいで、とてつもなくお金に困ってます。 今日は、気づいたらversion.11まで公開されたYou Only Look Once(以下、YOLO)に

                                                    バージョンが多すぎるYOLOについて語りたい - Sansan Tech Blog
                                                  • キーフレーズ抽出で振り返る2022年の業界別ニュース

                                                    2022年のニュースから自然言語処理技術を用いてキーフレーズを抽出

                                                      キーフレーズ抽出で振り返る2022年の業界別ニュース
                                                    • 時系列データ向けの表現学習「T-Rep (ICLR2024論文)」の紹介 - Qiita

                                                      概要 時系列データ向けの表現学習手法「T-Rep: Representation Learning for Time Series using Time-Embeddings」 (ICLR2024) の論文、公式リポジトリを読んだので備忘録を兼ねて紹介します。 本手法は多変量の時系列データに対応しており、表現学習時に複数のPretextタスクを導入することで異常検出や分類・予測に寄与する汎用的な特徴量を獲得しています。 時系列表現(representation)はタイムスタンプ単位で出力できるため、point-wiseな異常検出であったり、window単位で集約することでsegment-wiseな分類や異常検出も可能な手法です。 記事の後半では公式チュートリアルを参考に、多変量時系列データの分類を試してみます。 arxiv Github モデル構造 T-Repモデルは以下の3つのモジュール

                                                      • Gunosyにおけるニュース記事の自動要約システム開発 〜ChatGPTの登場を添えて〜 - Gunosyデータ分析ブログ

                                                        はじめに 背景とモチベーション ニュースキュレーションサービスとしての自動要約技術の重要性 事前学習済み言語モデルの急速な発展 自動要約モデルの作成 タスク設定 モデル データセット T5 の fine-tune 評価 自動評価 人手評価 推論の高速化 ONNX とモデル量子化 CPU を使用した推論速度と要約精度の評価 API 実装と slack bot 化 API 化 slack bot化 ChatGPT の登場 今後に向けて・おわりに はじめに こんにちは、 Gunosy Tech Lab (GTL) MediaML チームの大竹です。今回のブログでは、社内で運用されているニュース記事の自動要約システムについてご紹介したいと思います。 ニュース記事の本文から簡潔な要約を生成するシステムを作るため、データセットの収集から自動要約モデルの学習、サービスとして利用するための API 実装ま

                                                          Gunosyにおけるニュース記事の自動要約システム開発 〜ChatGPTの登場を添えて〜 - Gunosyデータ分析ブログ
                                                        • 自然言語処理でトラフィック変化検知 | IIJ Engineers Blog

                                                          最近はセキュリティログ解析などに取り組んでいます。何か面白そうな話題があればお声がけください。IIJ/IIJ-II技術研究所所属。 【IIJ 2021 TECHアドベントカレンダー 12/6(月)の記事です】 猫も杓子も深層学習と言っていた時代も一区切りついたように思います。画像処理の分野で一躍(再)注目を浴びた深層学習技術は、自然言語処理や囲碁ゲームなど、他の分野でもめざましい成果をあげました。 我々はインターネット界隈で活動していますが、それらの技術を自分たちの分野に活用できないかと検討をしたものです。何か今までできなかったようなすごいことが、深層学習を使ったら魔法のように実現するのではないか、と夢を見ていた時期もありました。もちろん、トップ研究者の方々がいろんな方面からインターネットへの深層学習の応用を試みて、素晴らしい成果が上がったことに間違いはないと思います。ただ、それらが今のネ

                                                            自然言語処理でトラフィック変化検知 | IIJ Engineers Blog
                                                          • 2021年で面白かったTransformer関連論文 - moriyamaのエンジニアリング備忘録

                                                            この記事はみらい翻訳アドベントカレンダー14日目の記事です。 2021年も終わりを迎える中、個人的には転職してからちょうど1年経ちました。 機械翻訳の研究開発に携わることもあり、自然言語処理や深層学習全般を中心にいろいろな論文を読んだ一年でした。 年末にありがちな今年の論文BEST10のようなランキングを作ってみようと考えたが、選定とランキング基準がなかなか定まらず、それだけで数日かかりそうだったので、Transformer関連論文に絞ってまとめてみようと思います。 今年も昨年に続きTransformer is all you needの色が一層強くなったと感じます。Transformer自体は自然言語処理を題材に提案されたモデルですが、最近は画像領域や音声領域でも高い性能を発揮しています。 強く注目されているモデルということもあり、構造の細部にフォーカスした多くの研究がありましたので、そ

                                                              2021年で面白かったTransformer関連論文 - moriyamaのエンジニアリング備忘録
                                                            • Self Distillationって何?AlphaFold2では何をしているの? - magattacaのブログ

                                                              先日AlphaFold2についてのPodCastを聞きました。知らないことばかりで「あーなるほどそういう話だったのかー」と興味深かったです。専門の先生方の議論を拝聴できるのはすばらしいですね。 AlphaFold2はディープランニングの専門の方から見ても、面白い技術がたくさん使われているそうですが、ど素人にはそもそもどこが生物学で、どこが深層学習的な話なのかわからないです。 というわけで、今回は深層学習の用語らしい「Self distillation」について調べてみました。ついでにAlphaFold2での使用例もちょっと見たいと思います。 www.nature.com 1. Self distillation 1-1. 知識蒸留はモデル圧縮の技術 1-2. 大事な知識はソフトな知識 1-3. 自己蒸留 ~Be Your Own Teacher~ 1-4. どうして自己蒸留で精度が上がるの

                                                                Self Distillationって何?AlphaFold2では何をしているの? - magattacaのブログ
                                                              • AWS Certified Machine Learning Engineer - Associate (MLA-C01) 対策でやってよかったこと - サーバーワークスエンジニアブログ

                                                                マネージドサービス部 佐竹です。 先日 AWS Certified Machine Learning Engineer - Associate (MLA-C01) を受験し、無事に合格しました。本ブログでは、受験後の感想と、試験対策のために「やっていてよかったな」と思ったことをご紹介します。 はじめに 2025 Japan AWS All Certifications Engineers AWS 資格試験の改廃 AWS Certified Machine Learning Engineer - Associate 受験後の感想など 先に AWS Certified AI Practitioner 認定を受けておく 順序付け問題の例 その他の感想 事前対策としてやっておいて良かったと感じたこと AWS サービス別資料を読む SageMaker の機能をわかりやすくまとめておく マネージドサー

                                                                  AWS Certified Machine Learning Engineer - Associate (MLA-C01) 対策でやってよかったこと - サーバーワークスエンジニアブログ
                                                                • Stable Baselinesを使ってスーパーマリオブラザーズ1-1をクリアするまで - Qiita

                                                                  はじめに 強化学習でゲームを解くことに興味があってちょっとずつ勉強している強化学習苦手勢です。Advent Calender 用に何かゲームの攻略について書いてみることにしました。OpenAI が公開している Stable Baselines の紹介とそれを使ってスーパーマリオブラザーズ 1-1 をクリアするところまでやりましたという内容です。OpenAI Gym / Baselines 深層学習・強化学習 人工知能プログラミング 実践入門を参考にました。 Stable Baselines は OpenAI が公開している強化学習アルゴリズムの実装セットです。多くの有名な手法を利用しやすい形で提供しています。強化学習アルゴリズムは実装時に仕込んでしまったバグの検出が難しく、学習が上手くいかない時に問題を切り分けにくくしています。Stable Baselines のような標準化された実装を使

                                                                    Stable Baselinesを使ってスーパーマリオブラザーズ1-1をクリアするまで - Qiita
                                                                  • ACL2021のBest PaperのVOLTを日本語文書分類で試してみた結果...! - Retrieva TECH BLOG

                                                                    こんにちは。 リサーチャーの勝又です。 私はレトリバで自然言語処理、とくに要約や文法誤り訂正に関する研究の最新動向の調査・キャッチアップなどを行っております。 今回の記事では、先日開催された自然言語処理のトップカンファレンスである、ACL-IJCNLP2021でBest Paperとなった、VOLT(VOcabulary Learning approach via optimal Transport)を日本語文書分類で試してみた話をします。 概要 VOLTとは? VOLTの概要 VOLT内部の尺度であるMUVについて VOLTのアルゴリズム 実験 実験設定 日本語文書分類タスクについて 分類モデルのハイパーパラメーターについて VOLTのハイパーパラメーターについて 実験結果 VOLTを使用しなかった場合と使用した場合の比較 VOLTを使用せずに最適な語彙サイズを決める まとめ 概要 一般

                                                                      ACL2021のBest PaperのVOLTを日本語文書分類で試してみた結果...! - Retrieva TECH BLOG
                                                                    • 第45回elasticsearch勉強会 BERTモデルを利用した文書分類

                                                                      第45回Elasticsearch勉強会のLTスライドです。 BERTモデルをElasticsearch v8.0.0-beta1 にインポートして利用します。Read less

                                                                        第45回elasticsearch勉強会 BERTモデルを利用した文書分類
                                                                      • 【Techの道も一歩から】第41回「SageMakerでStep Functionsを使った学習パイプラインを構築するために概念を理解する」 - Sansan Tech Blog

                                                                        こんにちは。 DSOC R&D グループの高橋寛治です。 最近は、MLOpsへの興味が大きく、ツールの実利用や勉強会での発表を行っています。 機械学習プロジェクトにおいて、久々の実行や引き継いだコードの実行の際に、順序や実行環境を思い出したり準備したりしながら確認するのはすごく大変です。 コンテナ化された上でパイプラインがあると、実行順序も実行環境も覚えたり記録したりする必要がなくなります。 コンテナとパイプラインを組み合わせて利用するAmazon SageMakerを利用し、学習パイプラインを構築してみました。 その概要とAmazon SageMakerを利用したパイプラインを構築する上で押さえておくべきだと思う概念を簡単に紹介します。 SageMakerによるパイプライン構築の概要 AWS Step Functions Data Science SDK for Amazon SageM

                                                                          【Techの道も一歩から】第41回「SageMakerでStep Functionsを使った学習パイプラインを構築するために概念を理解する」 - Sansan Tech Blog
                                                                        • gzipで言語判定 - Qiita

                                                                          はじめに 以前、UNIXに標準搭載されているライブラリを使って日英の言語判定をしたくなったので、gzipを使った言語判定の実験をしました。 言語判定とは 文が与えられたときにそれがどの言語で書かれているのか判定するタスクです。 他の自然言語処理タスクで使われるコーパスのクリーニングをしたり、言語によって処理を変えたりするのに有用な技術です。 gzip を使った言語判定の仕組み gzip はファイル圧縮に使われるライブラリです。そのため、言語判定タスクに使うと聞いてもピンとこないかもしれません。 gzip はファイルの圧縮に LZ法という手法を用いています。 これは辞書を用いた圧縮法で、ある文字列が繰り返し出現したとき、その文字列の代わりに辞書中の番号を出力することで元の文を短い長さで表すという仕組みです。 その仕組み上、今まで入力された文字列にないようなフレーズを多く含む文に対しては圧縮の

                                                                            gzipで言語判定 - Qiita
                                                                          • PyTorchで日本語BERTによる文章分類&Attentionの可視化を実装してみた - Qiita

                                                                            目次 本記事はPyTorchを使って自然言語処理 $\times$ DeepLearningをとりあえず実装してみたい、という方向けの入門講座になっております。以下の順番で読み進めていただくとPyTorchを使った自然言語処理の実装方法がなんとなくわかった気になれるかもしれません。 PyTorchを使ってLSTMで文章分類を実装してみた PyTorchを使ってLSTMで文章分類を実装してみた(バッチ化対応ver) PyTorchでSeq2Seqを実装してみた PyTorchでAttention Seq2Seqを実装してみた PyTorchのBidirectional LSTMのoutputの仕様を確認してみた PyTorchでSelf Attentionによる文章分類を実装してみた PyTorchで日本語BERTによる文章分類&Attentionの可視化を実装してみた ←イマココ はじめに

                                                                              PyTorchで日本語BERTによる文章分類&Attentionの可視化を実装してみた - Qiita
                                                                            • Grounding DINOのファインチューニング(追加学習)の仕方

                                                                              Grounding DINO とは Grounding DINOとは、物体検出と視覚言語統合のモデルで、特にテキスト条件付き物体検出に強みを持つモデルです。 具体的には、Grounding DINOは自然言語のテキストを入力として受け取り、そのテキストに関連するオブジェクトを画像の中で検出できる機能を持っています。 これにより、従来の物体検出モデルがラベルやカテゴリに基づいて検出を行うのに対し、Grounding DINOはより柔軟で、事前定義されていないカテゴリでもテキストを使って検出が可能です。 この記事を読んでできるようになること Grounding DINOは、訓練を行わなくても利用できるゼロショットモデルとして優れた性能を発揮しますが、航空画像のような特定の領域では物体検出が苦手な場合があります。 本記事では、像のデータセットを使用して、Grounding DINOを自分のデータ

                                                                                Grounding DINOのファインチューニング(追加学習)の仕方
                                                                              • Understanding Convolutions on Graphs

                                                                                This article is one of two Distill publications about graph neural networks. Take a look at A Gentle Introduction to Graph Neural Networks for a companion view on many things graph and neural network related. Many systems and interactions - social networks, molecules, organizations, citations, physical models, transactions - can be represented quite naturally as graphs. How can we reason about and

                                                                                  Understanding Convolutions on Graphs
                                                                                • 機械学習による適応的実験計画

                                                                                  ベイズ最適化と能動的レベル集合推定の基礎と実践に関するセミナー資料

                                                                                    機械学習による適応的実験計画

                                                                                  新着記事