並び順

ブックマーク数

期間指定

  • から
  • まで

241 - 280 件 / 536件

新着順 人気順

*algorithmの検索結果241 - 280 件 / 536件

  • 分散密ベクトル探索エンジンValdとSentence-BERTを使った類似文書検索を試す - エムスリーテックブログ

    エムスリーエンジニアリンググループ AI・機械学習チームでソフトウェアエンジニアをしている中村(@po3rin) です。 好きな言語はGo。仕事では主に検索周りを担当しています。 Overview 最近、社内で情報検索論文輪読会を立ち上げました。 情報検索論文読み会のスケジュール そこでNGT-ONNGについての論文*1を紹介したところ1時間の予定のところを盛り上がりすぎて2時間超えてしまいました。 大盛り上がりのついでに、今回は情報検索論文輪読会で紹介した近似最近傍探索ライブラリNGTを内部で利用するValdを使って、類似文書検索がどのように出来るのか、現状の問題を解決できるのかを試したのでその結果を報告します。 Overview 弊社が抱える類似文書検索の課題 Sentence-BERT Valdを使った近似最近傍探索 NGT Vald Vald×Sententce-BERTで類似文書

      分散密ベクトル探索エンジンValdとSentence-BERTを使った類似文書検索を試す - エムスリーテックブログ
    • SantaとAHCと遺伝的アルゴリズム

      DeNAの2023/2/21のDS輪講の発表資料です。

        SantaとAHCと遺伝的アルゴリズム
      • 生TensorFlow七転八倒記(11):TensorFlow周りの最近のアップデートについて - 渋谷駅前で働くデータサイエンティストのブログ

        2年ぐらい前に必要があって生TensorFlowとTensorFlow-Hubによる様々なモデルやフレームワーク並びに事前学習済みモデルの実装を試していたのですが、TF2の浸透に伴いそれらの多くの仕様が変更になっており、中には回らなくなっていたコードもあったので、それらを調べるついでに最近のTF-Hubのアップデートも覗いてきました。ということで、自分向けの備忘録として簡単にまとめておきます。 TensorFlow-Hubの事前学習モデル Estimatorクラス 余談 TensorFlow-Hubの事前学習モデル まず試したのがUniversal Sentence Encoderの多言語版。リンク先を見れば分かるように、16言語(アラビア語・簡体字中国語・繁体字中国語・英語・フランス語・ドイツ語・イタリア語・日本語・韓国語・オランダ語・ポーランド語・ポルトガル語・スペイン語・タイ語・トル

          生TensorFlow七転八倒記(11):TensorFlow周りの最近のアップデートについて - 渋谷駅前で働くデータサイエンティストのブログ
        • テキスト埋め込みモデルPLaMo-Embedding-1Bの開発 - Preferred Networks Research & Development

          2025/04初頭時点で、OpenAIのtext-embedding-3-largeなどの他社モデルを上回り、日本語テキスト埋め込みモデルとしてトップのスコアを記録しています (**)。特にテキスト埋め込みモデルの主要な用途と言えるRetrieval (検索タスク) では既存のモデルの最高スコアから2ポイント以上の更新を達成しており、情報検索での利用に適したモデルであることを示唆していると言えます。 (*) コンテキスト長1024で計測 (以降も断りがなければ同様)。これは学習時に用いたコンテキスト長が1024までであるため。ただし、ベースモデルの最大コンテキスト長であり、PLaMo-Embedding-1Bのconfig上の最大コンテキスト長である4096で計測しても、そこまで性能が下落するわけではないことがわかっています (Appendix参照)。 (**) 2025/04/14にRu

            テキスト埋め込みモデルPLaMo-Embedding-1Bの開発 - Preferred Networks Research & Development
          • 遅すぎるCNN処理、日立の自動運転研究部が原因と対処術を発表

            日立製作所 研究開発グループ 自動運転研究部は、GPUによるCNN(Convolutional Neural Network:畳み込みニューラルネットワーク)処理において期待したような性能が出ない理由やその対処方法について、「DAシンポジウム2022 −システムとLSIの設計技術−」(情報処理学会 システムとLSIの設計技術研究会(SLDM)が2022年8月31日~9月2日に開催)で発表した。CNN処理は、ADAS(先進運転支援システム)や自動運転における画像認識でよく使われる演算である。 発表した日立の島村光太郎氏によれば、CNN処理をGPUで実行すると、その演算性能がGPUメーカー発表のピーク性能より桁違いに低い場合があるという(図1)。例えば、データセンターでの推論処理でよく使われている米NVIDIA(エヌビディア)のGPUカード「Tesla T4」の16ビット浮動小数点演算(FP1

              遅すぎるCNN処理、日立の自動運転研究部が原因と対処術を発表
            • 受講したら「理解度が下がった」? 満足度88%、経産省が「AI Quest」で取り組むAI人材育成の今

              講師からの講義より参加者同士の学び合い マスクド まず、AI Quest立案の背景を教えてください。 上出さん(経産省) 近年、AIやデータを使って企業の課題を解決できる人材が求められています。AI人材育成を加速させるには、参加者同士の学び合いによる拡大生産性のある育成プログラムの確立が必要と考えました。講師に依存するような形では、講師不足の問題がボトルネックになるからです。 実施に先立ち、中小企業のAI導入による生産性向上効果を分析しました。「機械などへのセンサー取り付けによる予知保全による費用最小化」「売上実績、気候などのデータ分析による需要予測」など、19のAI導入領域を特定し、その領域ごと、また業界ごとの経済効果を推計しました。AI Questの教材は、この分析に基づき、特にAI導入インパクトの大きい領域を優先して作成しています。 「理解度が下がった」という声と「満足度88%」が両

                受講したら「理解度が下がった」? 満足度88%、経産省が「AI Quest」で取り組むAI人材育成の今
              • Chat Vectorを使って日本語LLMをチャットモデルに改造する - Qiita

                はじめに Chat Vector: A Simple Approach to Equip LLMs with Instruction Following and Model Alignment in New Languages という論文では、LLMの学習済み重みパラメータの足し引きによって、事前学習済みモデルに対話能力を与えることができるという結果が示されています。 具体的には、英語で事前学習されたモデル(以下ではベースモデルと呼びます)と、ベースモデルを指示チューニング (instruction tuning)してチャット形式の対話ができるようにしたモデル(英語チャットモデル)、ベースモデルを英語以外の言語で継続事前学習したモデルの3つのモデルを用います。 英語チャットモデルの重みからベースモデルの重みを引いたものは、チャット形式で対話ができる能力を表したベクトルであり、そのベクトルを

                  Chat Vectorを使って日本語LLMをチャットモデルに改造する - Qiita
                • 大規模サービスで効率よくレコメンドを提供するためにTensorflow Recommendersを活用する - DMM inside

                  はじめに こんにちは、DMMで機械学習エンジニアをしている二見です。 2020年に新卒で入社し、普段は検索やレコメンドの改善に従事しています。 DMMでは50を超えるサービスを提供しており、様々なデジタルコンテンツを取り扱っています。 また、各サービスには多くのユーザーの膨大なデータが日々蓄積されてます。 我々のグループでは、それらのビックデータを活用した改善施策を行うことで、各事業部の成長に日々貢献しております。 本記事では、新たにディープニューラルネットワークベースの先端的なレコメンドシステムを構築し、サービスに導入した事例を紹介したいと思います。 レコメンドエンジンの導入を検討している方・ニューラルネットベースのレコメンドに興味がある方の参考になれば幸いです。 目次 はじめに 目次 DMMにおけるレコメンドへの取り組み 背景 Tensorflow Recommendersとは 1.

                    大規模サービスで効率よくレコメンドを提供するためにTensorflow Recommendersを活用する - DMM inside
                  • DreamBooth

                    DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation Nataniel Ruiz Yuanzhen Li Varun Jampani Yael Pritch Michael Rubinstein Kfir Aberman Google Research It’s like a photo booth, but once the subject is captured, it can be synthesized wherever your dreams take you… [Paper] (new!) [Dataset] [BibTeX] Abstract Large text-to-image models achieved a remarkable leap in the

                    • TransformersのPipelinesで日本語固有表現抽出 - Retrieva TECH BLOG

                      こんにちは。TSUNADE事業部研究チームリサーチャーの坂田です。 本記事では、Hugging Face 社が開発しているTransformersのPipelinesという仕組みを使って日本語の固有表現抽出を行う方法をご紹介します。 Transformersとは? 日本語学習済み言語モデル Pipelines Trainer 固有表現抽出とは? 実際に日本語NERTを試してみる 必要な各種依存ライブラリのインストール 使用するデータ 日本語固有表現抽出データセットでのFine-tuning Pipelinesを使った固有表現抽出 実行例 おわりに 参考 Transformersとは? TransformersはHuggingFace社が公開しているPython用ライブラリで、BERTを始めとするTransformer系の言語モデルを使用する際のデファクトスタンダードになっています。また、最

                        TransformersのPipelinesで日本語固有表現抽出 - Retrieva TECH BLOG
                      • ソニーAI、トップドライバーを凌駕するAI「グランツーリスモ・ソフィー」

                          ソニーAI、トップドライバーを凌駕するAI「グランツーリスモ・ソフィー」
                        • 「論理処理が必要と思ったことが確率処理でできるとわかった」のは AI だけだろうか - 木曜不足

                          2004年ごろに Google の猫で深層学習が一躍脚光を浴びたとき、画像認識は特徴抽出が難しいので深層学習で良い結果が出るが、自然言語処理は特徴量*1がリッチなので、深層学習を適用するのは難しいだろうと思っていた。 特徴量がリッチとは、例えば「ホームラン」のたった1語でその文はスポーツ、特に野球の話題である可能性が高くなる、みたいな話である。一方、ピクセルの1つが緑であることから何の画像か当てるのは不可能だ。 その後、自然言語処理でも深層学習が当たり前になったのは誰もがご存知のとおりであり、自身の不明を恥じるばかりだ。ただ言い訳をさせてもらえるなら、自然言語処理のえらい先生方も同じように言っていたのだ。 2014年ごろ、LSTM などの深層学習モデルが発展し、自然言語処理でも目覚ましい結果が出始めた。機械翻訳など多くのタスクで、人間の平均といい勝負になったのもこの頃だったと思う。すると、

                            「論理処理が必要と思ったことが確率処理でできるとわかった」のは AI だけだろうか - 木曜不足
                          • 強化学習100題

                            Web site created using create-react-app

                              強化学習100題
                            • 顔のみをアニメ風にして動画配信。動く人の顔を高品質に漫画化するスタイル転送技術「VToonify」【研究紹介】 | レバテックラボ(レバテックLAB)

                              静止画像ベースのスタイル転送のために設計されたアプローチは数多くあり、その多くはモバイルアプリケーションという形で誰でも簡単にアクセスできるようになった。また深層学習技術の出現により、ポートレートスタイルの自動転送を通じて、実顔画像から高品質のポートレートをレンダリングできるようになった。 この潮流は動画にも派生し、動画内の動くポートレートにもスタイル転送できるようになった。ここ数年、動画コンテンツは急速にソーシャルメディアの主役となり、ポートレートビデオのスタイル転送のようなビデオ編集に対する需要も増加した。 既存のビデオベースのスタイル転送技術の多くは、静止画像ベースのスタイル転送技術(StyleGANなど)を動画に適応したアプローチを採用しているため、固定のフレームサイズ、顔の位置合わせ、顔以外の詳細の欠落、時間的不整合など、出力結果の品質に制限があり、課題として残っている。 本研究

                              • GPU1枚、1日未満で学習!超高速学習GAN、「Lightweight GAN」

                                3つの要点 ✔️ Skip-Layer Excitationとself-supervised Discriminatorを提案し、パラメータの大幅削減に成功 ✔️ 少量データでも学習可能 ✔️ 1024×1024の画像もGPU1枚、数時間で学習可能 Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image Synthesis written by Anonymous (Submitted on 29 Sep 2020) Comments: Accepted at ICLR2021 Subjects: Computer Vision and Pattern Recognition (cs.CV); Image and Video Processing (eess.IV) Comm 概要 これまでのG

                                  GPU1枚、1日未満で学習!超高速学習GAN、「Lightweight GAN」
                                • Launchable の人とカジュアル面談した

                                  TL;DR 興味があったので Launchable の @yoshiori さん @draftcode さんとカジュアル面談をした テストをはじめとしてソフトウェアエンジニアリングの生産性をデータドリブンで改善していくというのはめちゃ面白そう 自分は現段階では転職意思がないけど、機械学習エンジニアで興味ある人は言ってくれればおつなぎします! Ubie Discovery に転職して一年半が過ぎた。 日々楽しく働いているのだが、ご時世も相まって外の情報を得ることが少ないのはちょっと残念だなぁと思うことがある。 他の会社の人の話を聞くのは面白いしためになることも多いので、またそういう活動も少しずつやってみようかなと思い始めた。 そんな折に Launchable https://www.launchableinc.com/ で Machine Learning Engineer の positi

                                    Launchable の人とカジュアル面談した
                                  • BigQuery MLで商品一覧画面の並び順を改善して売上を40%上げた話 - OVERS

                                    目次 はじめに 自己紹介 内容概要 基本設計 TCVのビジネスモデル 施策内容 システム構成 フェーズ1: とりあえずAutoMLを使ってみる フェーズ2: 目的変数を変える フェーズ3: BigQuery MLの導入による検証高速化 フェーズ4: 国別 フェーズ5: 回帰ではなく分類へ フェーズ6とその先へ おわりに はじめに 自己紹介 じげん開発Unitデータ分析基盤チームの伊崎です。 開発Unitは特定の事業部に所属しない全社横断組織です。 その中で、データ分析基盤チームは全社のデータ基盤の整備、データ利活用を担当しています。 私個人としては、大学で純粋数学を学んだ後、前職でエントリーレベルの機械学習エンジニアとして働きました。現職では半分データエンジニア、半分データサイエンティストとして働いています。 プライベートでKaggleに参加し、銅メダルを獲得した経験があります(最近は活動

                                      BigQuery MLで商品一覧画面の並び順を改善して売上を40%上げた話 - OVERS
                                    • 音声認識モデルWhisperを投機的デコーディングで高速化する - NTT Communications Engineers' Blog

                                      こんにちは、イノベーションセンターの加藤です。この記事では、Transformerベースの言語モデルで利用可能な高速化技術である投機的デコーディング(speculative decoding)を用いて、音声認識モデルのWhisperの高速化を検証したのでその結果を紹介します。 投機的デコーディングとは Whisperとは 実験 英語音声 (LibriSpeech) の結果 日本語音声 (Common Voice 17.0 日本語サブセット) の結果 まとめ 投機的デコーディングとは 大規模言語モデル(LLM)をはじめとするTransformerベースの言語モデルは、これまでの単語列から次に現れそうな単語を予測することを繰り返して文章生成を行なっています。 これに対し、元のモデルよりも軽量な言語モデルの出力を下書きとして利用することで、元のモデルの出力を完全に再現しながら文章生成を高速化する

                                        音声認識モデルWhisperを投機的デコーディングで高速化する - NTT Communications Engineers' Blog
                                      • 推薦システムにおけるニューラルネットワークの活用について読んだ論文をゆるくまとめる - Re:ゼロから始めるML生活

                                        ここ数ヶ月くらい、推薦システムにおけるNNの活用というテーマで論文をちょこちょこ読んでいました。 推薦システムにNNを適用・応用するという守備範囲も広いテーマではありますが、せっかく良い機会なので自分用にまとめてみたいと思います。 理解が曖昧なところもあり、マサカリが飛んできそうな気配がプンプンしますが、がんばって書いてみたいと思います。マサカリコワイ... 前提知識 協調フィルタリング Matrix Factorization Factorization Machine ニューラルネットワークの推薦システムへの応用の傾向 Feature EngineeringとしてのNN Wide & deep DeepFM DCN AutoInt DCN V2 系列データとして取り扱うNN prod2vec AttRec BERT4Rec Transformers4Rec 参考文献 読んだ論文をまとめ

                                          推薦システムにおけるニューラルネットワークの活用について読んだ論文をゆるくまとめる - Re:ゼロから始めるML生活
                                        • cuGraph でページランクを計算したら爆速だった - Taste of Tech Topics

                                          概要 こんにちは、機械学習エンジニアの古賀です。 最近、人の動きを時系列で解析するためにグラフデータを扱ったのですが、データ量が大きくなると解析に時間がかかってしまい、効率が悪いと感じることがありました。 そんな中、cuGraph という高速にグラフ分析ができるライブラリが あることを知ったので、どれくらい高速なのか、有名なページランクの計算を題材に他のライブラリと速度を比較してみました。 目次は以下です。 概要 グラフとは Python によるグラフデータの分析 cuGraphとは ページランクとは ページランク値の定義 ページランクとグラフ 検証 実行環境 cuGraph ライブラリのインストール ライブラリのインポート データセット 検証内容・結果 1. NetworkX のグラフ、NetworkX のアルゴリズムを用いてページランクを計算 2. NetworkX のグラフ、cuGr

                                            cuGraph でページランクを計算したら爆速だった - Taste of Tech Topics
                                          • ROC曲線を直感的に理解する

                                            1. この記事について この記事は、機械学習で出てくるROC曲線を、直感的に理解することを目的とするものです。ROC曲線の一般的な定義や説明自体はインターネット上に溢れているので、ここではそれとは少し違った説明をします。 2. ROC曲線とAUC ROC曲線は、機械学習における二値分類タスクのモデル性能の評価に用いられるものです。モデル出力(予測値)が連続的である場合に用います。 ROC曲線は、予測値と真のターゲットの対応から描くことができ、例えば下図のようなイメージです。 ROC曲線が何者かを述べる前に、これをどのように評価に用いるかを簡単に説明します。 ROC曲線の下側の面積 (AUC: Area Under the Curve) は、予測値の大きい順にデータを並べ変えたとき、1が上に固まっている(0が下に固まっている)ほど大きくなるという性質があります。下図の2つのケースを比較すると

                                              ROC曲線を直感的に理解する
                                            • Give Up GitHub: The Time Has Come!

                                              Give Up GitHub: The Time Has Come! by Denver Gingerich and Bradley M. Kuhn on June 30, 2022 Those who forget history often inadvertently repeat it. Some of us recall that twenty-one years ago, the most popular code hosting site, a fully Free and Open Source (FOSS) site called SourceForge, proprietarized all their code — never to make it FOSS again. Major FOSS projects slowly left SourceForge since

                                              • A Gentle Introduction to Graph Neural Networks

                                                Neural networks have been adapted to leverage the structure and properties of graphs. We explore the components needed for building a graph neural network - and motivate the design choices behind them. Hover over a node in the diagram below to see how it accumulates information from nodes around it through the layers of the network. Authors Affiliations Benjamin Sanchez-Lengeling Google Research E

                                                  A Gentle Introduction to Graph Neural Networks
                                                • AI・機械学習の無料電子書籍

                                                  AI・機械学習の無料電子書籍 「AI・機械学習の無料電子書籍」は、機械学習/ディープラーニング、統計学/データサイエンスといった、人工知能(AI)関連技術を習得するのに役立つ電子書籍(特に無料のもの)を厳選して紹介するコーナーです。 Excelで学ぶ、やさしいデータ分析(2024/04/24) @IT eBookシリーズ第117弾は、連載『やさしいデータ分析』の全編を電子書籍化しました。表計算ソフトで試しながら、基本的なデータ分析を学べます。前提知識は不要で、全ての社会人にお薦め。ここからデータ分析の第一歩を踏み出しましょう!

                                                    AI・機械学習の無料電子書籍
                                                  • 「故人のAIとチャットしたい」と考える遺族 その需要と課題

                                                    写真やつぶやき、日記など、故人が残した痕跡を再構築してデジタル故人を作り出す。その需要は現在どれくらいあるのだろうか? 世界がコロナ禍に見舞われた2020年以降に行われた調査とその分析から、最新の世相を探りたい。 「デジタル故人は受け付けない」と考える人が多数派 デジタル情報と死の関係性を追いかけている関東学院大学の折田明子教授は、2022年1月に調査会社のマクロミルに依頼してオンラインアンケートを実施した。20年以降に近親者を亡くした20歳以上の日本人を対象に、故人が残したデジタルデータやSNS(交流サイト)などをどうしたいかを問う内容だ。有効回答は20代から70代まで1303件。

                                                      「故人のAIとチャットしたい」と考える遺族 その需要と課題
                                                    • 機械でさえ学習するのに、お前は学習せんのかって言われた

                                                      機械でさえ学習するのに、お前は学習せんのかって言われた

                                                        機械でさえ学習するのに、お前は学習せんのかって言われた
                                                      • LightGBMをGPUで回すと結果の再現性が得られない - Qiita

                                                        Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 概要 タイトルの通りなのだが、LightGBMをGPUで回すと結果の再現性が得られないことに気づいた。 CPUの場合は乱数seedを42などに固定すれば、同じ条件で何回回しても毎回同じ結果が得られる。 しかし、GPUの場合は乱数seedを固定しても回すたびに結果が変わってしまうのだ。 なぜ再現性がないのか? この問題はLightGBMの公式のissueでも議論されている。 まず、GPUを使う場合は並列で計算できる部分は並列処理をすることで効率化している。 さらに、並列化した結果を足し算するときに、順番によって微妙に値が変わってしまうとい

                                                          LightGBMをGPUで回すと結果の再現性が得られない - Qiita
                                                        • GitHub - aws-samples/aws-ml-enablement-workshop: 組織横断的にチームを組成し、機械学習による成長サイクルを実現する計画を立てるワークショップ

                                                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                            GitHub - aws-samples/aws-ml-enablement-workshop: 組織横断的にチームを組成し、機械学習による成長サイクルを実現する計画を立てるワークショップ
                                                          • GitHub - ml-tooling/best-of-ml-python: 🏆 A ranked list of awesome machine learning Python libraries. Updated weekly.

                                                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                              GitHub - ml-tooling/best-of-ml-python: 🏆 A ranked list of awesome machine learning Python libraries. Updated weekly.
                                                            • オフライン強化学習② Decision Transformerの系譜 - どこから見てもメンダコ

                                                              Decision transoformer (2021)は、自然言語モデルGPTにおける次トークン予測の枠組みでオフライン強化学習タスクを解けることを示し新たなパラダイムをもたらしました。最近ではDeepMindの超汎用エージェントGATOなどもDecision Transformerベースのアーキテクチャを採用しており、その重要性が増しています。 Decision Transformer とは オフライン強化学習の新たなパラダイム 言語を生成するように行動を生成する 自然言語風アプローチのメリット 条件付き生成:Reward conditioned Sequence modelingの系譜 Multi-Game Decision Transoformer(NeurIPS 2022) Uni[Mask](NeurIPS 2022): MaskedLMの導入 GATO(2022):超汎用エー

                                                                オフライン強化学習② Decision Transformerの系譜 - どこから見てもメンダコ
                                                              • PyTorch, ONNX, Caffe, OpenVINO (NCHW) のモデルをTensorflow / TensorflowLite (NHWC) へお手軽に変換する - Qiita

                                                                Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 日本語 English 1. はじめに いつも左中間を狙うようなプチニッチなふざけた記事ばかりを量産しています。 この記事の手順を実施すると、 最終的に PyTorch製 高精度Semantic Segmentation の U^2-Net を TensorFlow Lite へ変換することができます。 下図のような感じです。 TensorFlow めちゃくちゃ扱いにくいです。 日々公開される最新のとても面白いモデルは軒並みPyTorch実装ですし、なんでTensorFlowで実装してくれないんだ!! と、常日頃思っています。 論文のベ

                                                                  PyTorch, ONNX, Caffe, OpenVINO (NCHW) のモデルをTensorflow / TensorflowLite (NHWC) へお手軽に変換する - Qiita
                                                                • グラフを用いた近似最近傍探索の理論と応用

                                                                  NLP若手の会 (YANS) 第18回シンポジウム (2023) チュートリアル https://yans.anlp.jp/entry/yans2023 松井 勇佑(東京大学)https://yusukematsui.me/ 近似最近傍探索とは、「似ているベクトルを探す」というシンプルかつ基…

                                                                    グラフを用いた近似最近傍探索の理論と応用
                                                                  • 最近の登壇資料と出版予定の書籍、インタビュー記事 - c-bata web

                                                                    最近は勉強会での登壇や書籍の出版などアウトプットが色々重なりました (昨年は一度もプロポーザルを書かず登壇依頼もなかったので随分増えました)。 そのたびにツイートもしてきましたが、ほとんど流れてしまって少しもったいない気がしたのでブログにまとめておこうと思います。 登壇資料 PyData.Tokyo Meetup #23「サイバーエージェントにおけるMLOpsに関する取り組み」 Optuna Meetup #1「CMA-ESサンプラーによるハイパーパラメータ最適化」 World Plone Day「Web パネルディスカッション(Python Webと非同期)」 CA BASE NEXT「サイバーエージェントにおけるMLOpsに関する取り組み」 書籍 実践Django Pythonによる本格Webアプリケーション開発(翔泳社:7月19日発売) エキスパートPythonプログラミング改訂3版

                                                                      最近の登壇資料と出版予定の書籍、インタビュー記事 - c-bata web
                                                                    • Shinichi Takaŷanagi on Twitter: "”仕事ではじめる機械学習”的な内容の論文。「運用が難しいモデルはやめとけ」や「MLモデルにもテストをちゃんと書け」など大学での教育では見落としがちな内容を示唆している Return on Investment in Machine… https://t.co/RWPhVwYQEP"

                                                                      ”仕事ではじめる機械学習”的な内容の論文。「運用が難しいモデルはやめとけ」や「MLモデルにもテストをちゃんと書け」など大学での教育では見落としがちな内容を示唆している Return on Investment in Machine… https://t.co/RWPhVwYQEP

                                                                        Shinichi Takaŷanagi on Twitter: "”仕事ではじめる機械学習”的な内容の論文。「運用が難しいモデルはやめとけ」や「MLモデルにもテストをちゃんと書け」など大学での教育では見落としがちな内容を示唆している Return on Investment in Machine… https://t.co/RWPhVwYQEP"
                                                                      • BERTを用いた教師なし文表現 - Retrieva TECH BLOG

                                                                        こんにちは。レトリバの飯田(@meshidenn)です。TSUNADE事業部 研究チームのリーダーをしており、マネジメントや論文調査、受託のPOCを行なっています。今回は、教師なしの文表現作成手法SimCSEを紹介します。 背景・概要 手法 要因 実験 NLIタスクによる実験 クラスタリングによる実験 終わりに 背景・概要 自然言語処理は、昨今様々な領域へ応用することが期待されていますが、特に企業での応用においては、ラベル設計が出来ず、教師あり手法が使えない場面に遭遇することが多々あります。そんな場面で、きっと助けになってくれるのが教師なし手法です。特に、文の類似度については、様々なタスクやデータ作成に際して便利に使える場合があります。 近年、BERTなどの大規模事前学習済み言語モデルが出てきていましたが、教師なしの文類似度タスクの場合、BERTを使って単語をベクトルに変換し、そのベクトル

                                                                          BERTを用いた教師なし文表現 - Retrieva TECH BLOG
                                                                        • 大規模言語モデル時代のHuman-in-the-Loop機械学習

                                                                          画像の認識・理解シンポジウム(MIRU2023)チュートリアル

                                                                            大規模言語モデル時代のHuman-in-the-Loop機械学習
                                                                          • Whisperを使ったリアルタイム音声認識と字幕描画方法の紹介 | さくらのナレッジ

                                                                            OBS WebSocketの設定 OBSのWebSocket機能を有効にします。WebSocket機能は比較的新しい機能で、使ったことがない方も多いと思います。LAN内のコンピュータからOBSの各種プロパティを取得・変更できます。各種プログラミング言語から直接APIを呼べるので、「音声認識の結果を即時に画面に反映する」ような、頻繁に変更される値の更新に適しています。 設定方法は、OBSのメニューから「ツール」-「obs-websocket設定」をクリックし、出てきたダイアログの一番上のチェックボックス「WebSocketサーバーを有効にする」をオンにします。そして「パスワードを生成する」を押します。後述のプログラムで定数として使用します。これでWebSocket機能を使用できるようになります。 Pythonのプログラムから字幕変更 PythonのプログラムからOBSにWebSocketで接

                                                                              Whisperを使ったリアルタイム音声認識と字幕描画方法の紹介 | さくらのナレッジ
                                                                            • Google の FLAN-20B with UL2 を動かしてChatGPT APIのように使ってみる! - Qiita

                                                                              Google の FLAN-20B with UL2 を動かしてChatGPT APIのように使ってみる!言語モデルflanUL2YiTay こんにちは!逆瀬川 ( https://twitter.com/gyakuse )です! 今日は昨日公開されたFLAN-20B with UL2を使ってChatGPT APIのように会話をしてみたいと思います。 概要 Google BrainのYi Tayさんらが開発した新しく公開された言語モデルのFLAN-20B with UL2を使ってChatbotみたいな対話をしてみるテストです。 翻訳を組み合わせて実現します。デカ言語モデルが手元で動いてめちゃくちゃ嬉しさがあります。 Google Colab Colab ProのプレミアムGPUでないと動きません 使い方 ランタイム > ランタイムのタイプを変更からGPU / プレミアムとする A100 4

                                                                                Google の FLAN-20B with UL2 を動かしてChatGPT APIのように使ってみる! - Qiita
                                                                              • Tribuo: Machine Learning in Java

                                                                                Tribuo* is a machine learning library written in Java. It provides tools for classification, regression, clustering, model development, and more. It provides a unified interface to many popular third-party ML libraries like xgboost and liblinear. With interfaces to native code, Tribuo also makes it possible to deploy models trained by Python libraries (e.g. scikit-learn, and pytorch) in a Java pro

                                                                                  Tribuo: Machine Learning in Java
                                                                                • SushiGAN2 〜この寿司は実在しません〜 - Qiita

                                                                                  はじめに 2年ほど前,私はGANというものに出会って感銘を受け,Qiitaで『SushiGAN 〜人工知能は寿司を握れるか?〜』というちょっと釣りっぽいタイトルの記事を書きました.中身はChainerのexampleにあったDCGANの実装を寿司の画像で学習させてみるというもので,下のようなモード崩壊気味の寿司画像を作って満足していました. あれから2年あまりが経ち,画像生成の技術は驚くべき発展を遂げました1.StyleGAN,そしてStyleGAN2が登場し,すぐには見分けがつかないほどの品質で1024x1024の人の顔の画像が生成できるようになりました [1].そのインパクトは凄まじく,"This Person Does Not Exist"を皮切りに,GANで生成したリアルな偽物のサンプルをランダムに表示するWebサイトがちょっとした流行になりました.いくつか例を挙げると,次のような

                                                                                    SushiGAN2 〜この寿司は実在しません〜 - Qiita

                                                                                  新着記事