並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 240 件 / 477件

新着順 人気順

mlopsの検索結果201 - 240 件 / 477件

  • Pytorch-lightning+Hydra+wandbで作るNN実験レポジトリ - Higu`s diary

    Kaggle Advent Calender2020の 11日目の記事です。 昨日はhmdhmdさんのこちらの記事です! 2020年、最もお世話になった解法を紹介します - Qiita 明日はarutema47さんの記事です! (後ほどリンクはります) 本記事では、深層学習プロジェクトで使用すると便利なライブラリ、 Pytorch-lightningとHydraとwandb(Weights&Biases)について紹介したいと思います。 対象読者 Pytorchのボイラープレートコードを減らせないか考えている 下記ライブラリについては聞いたことあるけど、試すのは億劫でやってない 書いてあること 各ライブラリの役割と簡単な使い方 各ライブラリを組み合わせて使う方法 各ライブラリのリファレンスのどこを読めばよいか、更に勉強するにはどうすればよいか また、上記3つのライブラリを使用したレポジトリを

      Pytorch-lightning+Hydra+wandbで作るNN実験レポジトリ - Higu`s diary
    • GitHub - ml-tooling/best-of-ml-python: 🏆 A ranked list of awesome machine learning Python libraries. Updated weekly.

      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

        GitHub - ml-tooling/best-of-ml-python: 🏆 A ranked list of awesome machine learning Python libraries. Updated weekly.
      • GKEでMLバッチ運用のコツ - エムスリーテックブログ

        この記事はエムスリーAdvent Calendar 2023とMLOps Advent Calendar 2023の12日目の記事です。 AI・機械学習チームの北川です。 最近は猫のかまってアピールがすごすぎて、よく仕事の邪魔されます。 かまって欲しがる猫 現在AI・機械学習チームではMLのバッチをGoogle Kubernetes Engine(GKE)上で運用しています。 現在数えてみたところ240個以上のバッチがGKE上で動いているようです。 AI・機械学習チームでは2019年頃から約4年ほどGKE上でMLバッチを運用しています。 その間にコストの最適化や安定したバッチの運用などに力を入れてきました。 この記事では、主にスケールインとコスト最適化について説明しようと思います。 チームのMLについて全体を把握したい場合は以下の記事が詳しいです。 www.m3tech.blog GKEの

          GKEでMLバッチ運用のコツ - エムスリーテックブログ
        • Best practices for operating large-scale recommender systems

          Ensuring the health of a modern large-scale recommendation system is a very challenging problem. To address this, we need to put in place proper logging, sophisticated exploration policies, develop ML-interpretability tools or even train new ML models to predict/detect issues of the main production model. In this talk, we shine a light on this less-discussed but important area and share some of th

            Best practices for operating large-scale recommender systems
          • Google Cloud が Vertex AI を公開: 各種 ML ツールを統合したプラットフォーム | Google Cloud 公式ブログ

            ※この投稿は米国時間 2021 年 5 月 19 日に、Google Cloud blog に投稿されたものの抄訳です。 本日の Google I/O にて、マネージド機械学習(ML)プラットフォームである Vertex AI が一般提供になることが発表されました。このプラットフォームは、企業において人工知能(AI)モデルのデプロイおよび維持を迅速に行えるようにするものです。Vertex AI は、他の競合プラットフォームに比べ、モデルのトレーニングに必要なコードの行数をおよそ 80% 少なくできるのが特長です[1]。これにより、専門知識の深浅を問わず、あらゆるレベルのデータ サイエンティストや ML エンジニアが機械学習オペレーション(MLOps)を実装し、開発ライフサイクル全体を通じて効率的に ML プロジェクトを構築、管理することが可能となります。 現在、データ サイエンティストは別

              Google Cloud が Vertex AI を公開: 各種 ML ツールを統合したプラットフォーム | Google Cloud 公式ブログ
            • Monitoring Machine Learning Models in Production

              Introduction Once you have deployed your machine learning model to production it rapidly becomes apparent that the work is not over. In many ways the journey is just beginning. How do you know if your models are behaving as you expect them to? What about next week/month/year when the customer (or fraudster) behavior changes and your training data is stale? These are complex challenges, compounded

              • The Linux Foundation、機械学習向けプラットフォーム「MLflow」をプロジェクトに追加

                The Linux Foundation、機械学習向けプラットフォーム「MLflow」をプロジェクトに追加:「機械学習のベストプラクティスを組み込む」 The Linux Foundationは「MLflow」を新たにLinux Foundationプロジェクトに加えた。MLflowは、Databricksが開発した、特定の機械学習フレームワークや言語に依存しない機械学習向けプラットフォーム。機械学習の開発ライフサイクルを管理する。

                  The Linux Foundation、機械学習向けプラットフォーム「MLflow」をプロジェクトに追加
                • ヤフーのサイエンス組織におけるMLOps推進チームの取り組み

                  質問内容に対して、手動で実行しその結果をドキュメントに残していれば0.5、CIなどに組み込まれ自動実行されている場合には1.0、どちらにも該当しない場合には0をつけます。各領域においてスコアを合算し、そのスコアの最小値が最終的なML Test Scoreです。従いまして、特定の領域でスコアが高くても、別の領域のスコアが低ければその結果が採用されることになるため、高スコアを得るには全ての領域で高スコアを取る必要がある厳しいものです。 一方、ML Test Scoreを進めるにあたり、同じプロダクトへの継続的な計測であっても回答者が変わった際に回答基準にぶれが生じる課題が発生しました。対策として、設問一つずつに対して社内の状況なども加味した判断基準を作成し、そちらをもとに回答をしてもらうようにしました。具体的には下記のようなものです。 特徴量・データ領域 質問内容: 新しい特徴量は素早く追加可

                    ヤフーのサイエンス組織におけるMLOps推進チームの取り組み
                  • 大量のユーザーデータを横断的に使うために LINEのデータサイエンティストが気をつけているいくつかのこと

                    2020年11月25〜27日の3日間、LINE株式会社が主催するエンジニア向け技術カンファレンス「LINE DEVELOPER DAY 2020」がオンラインで開催されました。そこで LINEのフェローであり、Data Science and Engineeringセンターに所属する並川淳氏が、「LINEではどのようにサービス横断でのデータ活用を実現しているのか」というテーマで、LINEにおけるデータの扱い方について共有しました。 LINEにおけるデータ活用の取り組み 並川淳氏(以下、並川):本日は「LINEではどのようにサービス横断でのデータ活用を実現しているのか」というタイトルで、並川が発表いたします。私は、LINEではふだん機械学習に関わる開発全般を担当しています。ですが、今日は機械学習に限らず、LINEにおけるデータ活用の取り組みについて幅広く紹介させてもらえればと思っています。よ

                      大量のユーザーデータを横断的に使うために LINEのデータサイエンティストが気をつけているいくつかのこと
                    • メルカリShopsを支えるMonorepo ML開発環境 | メルカリエンジニアリング

                      こんにちは!SouzohのMLチームでSoftware Engineerをしているwakanaです。 SouzohのMLチームは2021年4月にスタートし、ちょうど2年が経ちます。当時1人だったメンバーも、今では4人になり、レコメンデーションを中心に5, 6個の機能を提供するようになりました。MLOpsも成熟し、より新しく高度なML機能開発に集中して取り組める環境が整ってきていると感じています。 そこでこの記事では、立ち上げから2年たった今SouzohのPython, ML環境がどのようになっているか紹介しようと思います。これからPythonやMLのMonorepoでの開発環境を整えようとしている方、特に少人数での運用を考えてる方の参考になれば嬉しいです。 TL;DR SouzohではPoetry, Bazel, VertexAI Pipelinesで快適なMonorepo開発環境を実現

                        メルカリShopsを支えるMonorepo ML開発環境 | メルカリエンジニアリング
                      • DynalystのML監視の取り組み事例 | CyberAgent Developers Blog

                        ML監視は従来のソフトウェア開発の監視要素に加え、モデルや予測値、データに関する監視が必要とされています。 監視の優先順位 上述のようにML監視項目は数多くあり、いきなり全ての監視項目を導入するのは難しいです。 クラウドベンダー各社のMLOpsの成熟度モデル [3]のように、ML監視も段階的に取り組んでいくことが望ましいと言えます。 A Comprehensive Guide on How to Monitor Your Models in Productionの記事ではGoogleのMLOps成熟度モデルに合わせた監視項目を取り上げています。 引用: A Comprehensive Guide on How to Monitor Your Models in Production [4] EVIDENTLY AIが公開してるMonitoring ML systems in product

                          DynalystのML監視の取り組み事例 | CyberAgent Developers Blog
                        • BERTを使ったMLバッチ処理実サービスのアーキテクチャとMLOpsの取り組み

                          こんにちは、Development部門に所属しているSREの佐藤と申します。 Development部門では複数プロダクト共通の基盤構築や、新技術の検証、インフラ整備などを幅広く担当しています。これまでストックマークではCI/CD基盤の構築やAWS上で構築するインフラのコード化、ニュース収集基盤のアーキテクチャの改善や運用負荷軽減から、製品利用状況のデータ分析基盤構築などに取り組んできました。 今日はAstrategyという製品でのMLOpsの取り組みについて話します。 AstrategyについてAstrategyは国内外Webメディアを対象として情報を収集・構造化し、調査・報告業務を包括的にサポートする検索プラットフォームです。 図1: 「言葉のAI」自然言語解析を用いたオープンデータ解析ツール 複数の分析画面を提供しており、目的に応じて異なる観点で市場変化や競合動向を可視化できます。

                            BERTを使ったMLバッチ処理実サービスのアーキテクチャとMLOpsの取り組み
                          • MLOpsマルチテナントクラスタへのArgo CDの導入と運用 - ZOZO TECH BLOG

                            はじめに こんにちは。ML・データ部MLOpsブロックの築山(@2kyym)です。 MLOpsブロックでは2022年の上期からArgo CDの導入に着手しました。本記事ではArgo CDの導入を検討した背景から導入のメリット、また導入における公式マニフェストへの変更点や、運用において必須である認証や権限管理など、具体的な手順についてご紹介します。少しでもArgo CDの導入を検討している方の助けになれば幸いです。 またArgo CDを導入するきっかけとなった、複数運用していたKubernetesクラスタを1つに集約するマルチテナントクラスタへの移行についても触れます。マルチテナントクラスタの設計や具体的な移行作業については述べると長くなってしまうため、詳細については改めて別の記事にてご紹介できればと思います。 Argo CDについては、昨年の計測SREブロックの記事でも触れられていますので

                              MLOpsマルチテナントクラスタへのArgo CDの導入と運用 - ZOZO TECH BLOG
                            • MLOps のこれまでとこれから

                              機械学習の運用に関するさまざまな取り組みについて、過去・現在・未来の観点からまとめた資料です。

                                MLOps のこれまでとこれから
                              • TechCrunch | Startup and Technology News

                                Ten years ago, Elizabeth Holmes’ biotech startup, Theranos, was valued to be worth $10 billion. Five years ago, she was indicted for wire fraud. Finally, today, Holmes reported to prison to begi

                                  TechCrunch | Startup and Technology News
                                • AI Platform Pipelines の機械学習基盤への導入 - MicroAd Developers Blog

                                  こんにちは、マイクロアド機械学習エンジニアチームの河本(@nnkkmto)です。今回、モデル学習における課題解決に向けて GCP における機械学習基盤に AI Platform Pipelines (Kubeflow Pipelines) を導入しました。今回はその内容について紹介します。 従来の方法 抱えていた課題 手段:AI Platform Pipelines 導入時の方向性 導入内容 実行処理 CI / CD 終わりに 参考 従来の方法 マイクロアドでは学習実行基盤として GCP (Google Cloud Platform) を採用しています。 定期的な学習が必要な推論モデルは、 AI Platform Training の単一の job として学習処理の含まれるイメージを cron 実行することで行っていました。 デプロイ・実行をまとめると以下のような構成になっています。 抱え

                                    AI Platform Pipelines の機械学習基盤への導入 - MicroAd Developers Blog
                                  • Get Started with TensorFlow Transform  |  TFX

                                    This guide introduces the basic concepts of tf.Transform and how to use them. It will: Define a preprocessing function, a logical description of the pipeline that transforms the raw data into the data used to train a machine learning model. Show the Apache Beam implementation used to transform data by converting the preprocessing function into a Beam pipeline. Show additional usage examples. Setup

                                      Get Started with TensorFlow Transform  |  TFX
                                    • 第18回 MLOps 勉強会 - MLOps Practicesの紹介

                                      第18回 MLOps 勉強会で登壇したスライドです. https://mlops.connpass.com/event/242652/ 各社が実務で取り組んでいるMLOpsに関する事例やMLOpsの各領域で使用されている技術トピックを整理したMLOps Practicesというサイトを公開したので,その紹介スライドです.

                                        第18回 MLOps 勉強会 - MLOps Practicesの紹介
                                      • Using MLOps to Bring ML to Production/The Promise of MLOps

                                        In this final Weave Online User Group of 2019, David Aronchick asks: have you ever struggled with having different environments to build, train and serve ML models, and how to orchestrate between them? While DevOps and GitOps have made huge traction in recent years, many customers struggle to apply these practices to ML workloads. This talk will focus on the ways MLOps has helped to effectively in

                                          Using MLOps to Bring ML to Production/The Promise of MLOps
                                        • バクラクのAI-OCRを支える精度モニタリング -モニタリングドリブンの改善-

                                          MLOps LT大会 2023/7月 登壇資料 https://mlops.connpass.com/event/286716/ バクラクのAI-OCRを支える精度モニタリングについて紹介します。OCR技術は、ビジネスプロセスを効率化する上で必要不可欠な技術の一つですが、その精度を維持するためには、常にモニタリングが必要です。バクラクのMLチームでは、AI-OCRの精度モニタリングに重点的に取り組んでおりその内容を紹介します。

                                            バクラクのAI-OCRを支える精度モニタリング -モニタリングドリブンの改善-
                                          • noteの機械学習フローを共通化してレコメンデーションで成果をあげた話|やすけん / yskn67

                                            こんにちは.noteの基盤開発グループ機械学習チームに所属している安井です.普段は機械学習を活用したシステムの開発から運用までトータルでおこなっています. noteでは記事の分類やレコメンデーションに機械学習を用いて作成されたモデルが使われています.いくつか例を挙げますと,noteに投稿された記事をカテゴリごとにまとめて見るために,記事をカテゴリごとに機械学習で分類しています.また,”あなたへのおすすめ”としてユーザごとにパーソナライズされたおすすめ記事をとどけるためにも機械学習が活用されています. (図1)noteにおける機械学習の活用箇所それらサービスで活用されている複数の機械学習モデルには記事の内容から分散表現を獲得する似たような仕組みが存在しました.今回はそれらを共通コンポーネントとして切り出し,分散表現を推論・保存まで行う仕組みを構築しました.また,その分散表現を活用したレコメン

                                              noteの機械学習フローを共通化してレコメンデーションで成果をあげた話|やすけん / yskn67
                                            • MLOpsの各社の定義まとめ - Qiita

                                              CI: 継続的インテグレーション CD: 継続的デリバリー CT: 継続的トレーニング CM: 継続的監視 2.2 Facebook Facebookのエンジニアブログを検索しましたが、ヒットしませんでした。 FBLearnerでMLOpsを実践しているものの、定義を書いているわけではなさそうです。 2.3 Intel Intelのwebサイト内にてMLOpsで検索しましたが、SeldonのCTOの紹介と求人票以外はヒットしませんでした。 https://www.intel.com/content/www/us/en/search.html?ws=text#q=MLOps&t=All プロセッサを作るのがメインの会社だから、無くても仕方ないですね。 2.4 Microsoft 2.4.1 Microsoftの定義 MLOps:Azure Machine Learning を使用したモデル管

                                                MLOpsの各社の定義まとめ - Qiita
                                              • Google、「Cloud AI Platform Pipelines」ベータ版を発表! MLワークフロー作成を支援 | Techable(テッカブル)

                                                Tech Google、「Cloud AI Platform Pipelines」ベータ版を発表! MLワークフロー作成を支援 Googleは、複雑な機械学習(ML)ワークフローの作成、管理を簡略化する「Cloud AI Platform Pipelines」のベータ版リリースした。 同サービスでは、MLワークフロー作成での全ステップ、データの準備と分析、トレーニング、評価、展開などを支援してくれ、再現性が高く堅牢なパイプライン展開が可能になる。 Cloud AI Platform Pipelinesの導入で、MLワークフローの作成や再利用にかかっていた労力が半減するかもしれない。 ・実行、評価、バージョン管理などの機能を提供Cloud AI Platform Pipelinesは、Google Cloudコンソールから利用でき、セキュアなMLワークフロー実行環境が簡単に用意できる。さらに

                                                  Google、「Cloud AI Platform Pipelines」ベータ版を発表! MLワークフロー作成を支援 | Techable(テッカブル)
                                                • ペパボのログ活用基盤「Bigfoot」を Google Cloud Platform に移設しました - ペパボ研究所ブログ

                                                  研究員の @zaimy です。ペパボ研究所では、自社が運営するウェブサービスのユーザーの行動ログや属性情報を収集・分析・活用するための全社基盤「Bigfoot」を技術基盤チームと協力して開発・運用しています。 Treasure Data をバックエンドとして2016年に運用を開始したこのシステムを、今年 Google Cloud Platform(以下 GCP)を中心とした構成に移設しました。この記事では移設に至った理由、移設時の工夫、移設後の構成などについてお話します。 目次 Bigfoot とは 移設前の構成と移設に至った経緯 GCP の選定理由 BigQuery の存在 AI Platform の存在 コスト 移設時の工夫 データウェアハウスの並行運用 ワークフローの二段階移行 行動ログのスキーマ設計 移設後の構成 bigfoot/platform bigfoot/cloud-com

                                                    ペパボのログ活用基盤「Bigfoot」を Google Cloud Platform に移設しました - ペパボ研究所ブログ
                                                  • How to evaluate MLOps Platforms

                                                    Companies that pioneered application of AI at scale did so using in-house ML platforms (facebook, uber, LinkedIn etc.). These capabilities are now available in off-the-shelf products. The rush to MLOps has led to too much choice. There are hundreds of tools and at least 40 platforms available: Image by Thoughtworks, from Guide to Evaluating MLOps PlatformsThis is a very difficult landscape to navi

                                                      How to evaluate MLOps Platforms
                                                    • SageMaker初心者必見!AWS認定試験(機械学習)に合格するために絶対に覚えるべきこと - Qiita

                                                      はじめに 先日、AWS認定 機械学習 - 専門知識 (AWS Certified Machine Learning - Specialty) に合格し、AWS認定試験をすべて制覇することができました。11冠達成! この試験で特に重要なのがAWSの機械学習サービスである 「Amazon SageMaker」 です。 しかし、一口に「SageMaker」といっても「SageMaker ****」といった関連サービスがとても多い。 もちろん、機能が多いのはありがたいことなのですが、初心者にとっては覚えるのが大変なので、試験の復習も兼ねて、まとめてみました。 SageMaker サービス体系 注意事項 AWS re:Invent 2021 (2021/11/29 - 2021/12/03) 以降に発表されたサービスは別枠としているのは、リリースされて6か月以内のサービスや機能に関する問題が認定試験

                                                        SageMaker初心者必見!AWS認定試験(機械学習)に合格するために絶対に覚えるべきこと - Qiita
                                                      • Using GitHub Actions for MLOps & Data Science

                                                        EngineeringUsing GitHub Actions for MLOps & Data ScienceBackground Machine Learning Operations (or MLOps) enables Data Scientists to work in a more collaborative fashion, by providing testing, lineage, versioning, and historical information in an automated way.  Because the… Background Machine Learning Operations (or MLOps) enables Data Scientists to work in a more collaborative fashion, by provid

                                                          Using GitHub Actions for MLOps & Data Science
                                                        • The Winding Road to Better Machine Learning Infrastructure Through Tensorflow Extended and Kubeflow - Spotify Engineering

                                                          The Winding Road to Better Machine Learning Infrastructure Through Tensorflow Extended and Kubeflow When Spotify launched in 2008 in Sweden, and in 2011 in the United States, people were amazed that they could access almost the world’s entire music catalog instantaneously. The experience felt like magic and as a result, music aficionados dug in and organized that content into millions of unique pl

                                                            The Winding Road to Better Machine Learning Infrastructure Through Tensorflow Extended and Kubeflow - Spotify Engineering
                                                          • Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリース

                                                            Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリースW&B Fully Connected 2023カンファレンスとAI Expo2023秋にて配布予定 Weights & Biases Japan株式会社(以下、W&B Japan)は本日、大規模言語モデル(LLM)の開発手法にフォーカスするホワイトペーパーの第2弾となる「LLMファインチューニングとプロンプトエンジニアリングのベストプラクティス」を公開しました。LLM導入を検討している企業向けに、自社の保持するリソースやビジネスモデルに合わせたLLM開発手法を選択するための実践的ガイドとなっており、第1弾の「LLMをゼロからトレーニングするためのベストプラクティス」を補完する形で、既存のLLMモデルを拡張する形で自社用途に適応する手法について解説しています。本ホワイトペーパーの印刷済み冊子

                                                              Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリース
                                                            • Unity Learnチュートリアル「ML-Agents:ハチドリ」で強化学習を始めよう|①Flowerクラスの実装

                                                              ML-Agents:ハチドリ Unityには、強化学習を構築するためのフレームワークであるML-Agentsがあります。また、Unityの公式なチュートリアル&コースウェアを提供するUnity Learnにおいて、このML-Agentsのチュートリアルを提供する「ML-Agents:ハチドリ」があります。 「ML-Agents:ハチドリ」は、Humming bird (ハチドリ)が蜜を吸うゲームの中で、ハチドリが効率的に蜜を吸うことをゴールとして、強化学習を用いてハチドリをトレーニングするための学習コンテンツです。 この記事は、私が「ML-Agents:ハチドリ」を学習した際に、重要だと考えた事項を備忘用にメモするためのものです。 プロジェクト:①Flower.cs 本プロジェクトでは、個々の花の機能のスクリプトを作成します。ハチドリはこの花と直接やりとりをするので、適切な反応をする必要が

                                                                Unity Learnチュートリアル「ML-Agents:ハチドリ」で強化学習を始めよう|①Flowerクラスの実装
                                                              • 1ペタバイトのデータセットで機械学習する / WebDataset入門

                                                                深層学習をする上で、最も大切なマシンスペックを聞かれたら何と答えますか? GPUのTensor性能、VRAM、GPUの数、CPU性能、メモリ、… 問題によって正解は異なりますね。 しかし、特に大規模なデータセットで機械学習する場合では、しばしばネットワーク帯域とストレージシステムのディスクI/Oによって制限されます。この記事ではそのような課題に対して、学習側でどのようにデータを扱うかを見ていきたいと思います。 1. この記事は? こんにちは、TURING MLチームです。TURINGはEnd-to-Endな深層学習モデルでLv5完全自動運転車の開発を目指す会社です。 私たちは自動運転モデルを動かすため、可視域のカメラセンサによる画像で学習し、カメラ映像のみから車体の操作や経路選択、安全性の判断を行わせています。(実際の車を動かす事例はこちらの記事をご覧ください。) そのため、機械学習のため

                                                                  1ペタバイトのデータセットで機械学習する / WebDataset入門
                                                                • 機械学習プロジェクトにおけるSageMaker Processingの使い所 - コネヒト開発者ブログ

                                                                  みなさんこんにちは。機械学習チームのたかぱい(@takapy0210)です。 2021年もあと1ヶ月となりましたね。皆様いかがお過ごしでしょうか。 ...さて12月といえば、毎年恒例のアドベントカレンダーの季節ですね! というわけで、2021年もコネヒト Advent Calendarが始まります!🎉 初日となる本エントリでは、機械学習チームで使用しているSageMaker*1の機能である、Processing*2について、活用事例とともにご紹介しようと思います。 目次 SageMaker Processingとは? SKLearnProcessor / PySparkProcessor Processor / ScriptProcessor これまでの課題感 SageMaker Processorの活用方法 SageMakerからECRにあるコンテナを指定してProcessor Job

                                                                    機械学習プロジェクトにおけるSageMaker Processingの使い所 - コネヒト開発者ブログ
                                                                  • Vertex AIを活用したMLOpsの実現【前編】 | 株式会社CAM

                                                                    |目次 1. はじめに 2. MLOpsとは 3. VertexAIの概要 4. Vertex Pipelineについて -概要 -コンポーネントの実装例 -パイプラインの実装例 -Vertex PipelineでのKubeflow Pipelineの実行 5. まとめ 6. 参考資料 |1. はじめに 株式会社CAMで機械学習エンジニアをしています原 和希です。 データ分析から機械学習モデルの作成、そしてMLOps基盤の構築を担当しています。 今回はMLOps基盤の構築をトピックとして、弊社で導入している「VertexAI」という、GCP 上で MLOps 基盤を実現するためのサービスを紹介します。 本記事は前編と後編に分かれています。 この前編ではMLOpsについてと機械学習パイプラインを実現するためのサービスであるVertex Pipelineについて詳しく解説をします。 後編では、

                                                                      Vertex AIを活用したMLOpsの実現【前編】 | 株式会社CAM
                                                                    • タスクとパラメータの一元管理で実現するMLOps - enechain Tech Blog

                                                                      はじめに 背景 タスクランナーを導入するモチベーション パラメータ管理ツールを導入するモチベーション 実現したいこと モデルや環境に依存しないタスクによるパイプラインの操作 共通部分と環境特有部分を分離したパラメータ定義 パラメータ定義の構造化 実装方法 利用するツール パラメータファイル 構造化パラメータのマージ処理の実装 おわりに はじめに enechain データサイエンスデスク エンジニアの藤村です。 enechainでは市場活性化を目的として、機械学習や最適化アルゴリズムを用いて電力や燃料などの商品に関する指標を算出し、社内外に提供しています。本稿では、これらを算出するモデルの構築・運用を効率化するために作成した、タスクランナーinvokeとパラメータ管理ツールhydraを一体化したシステムを紹介します。 背景 タスクランナーを導入するモチベーション 機械学習モデルの構築・運用に

                                                                        タスクとパラメータの一元管理で実現するMLOps - enechain Tech Blog
                                                                      • MonotaROのMLOps〜バンディットアルゴリズムの効果を最大化するリアルタイムデータパイプライン〜 - MonotaRO Tech Blog

                                                                        はじめに 皆さん、こんにちは。MonotaROTechBlogをご覧いただきありがとうございます。データサイエンスグループ所属の植村です。今回の記事では、MonotaROで取り組んでいるバンディットアルゴリズムを用いた施策を支える、データパイプライン*1を紹介したいと思います。リアルタイムな情報を用いて最適化を行う基盤を提供する方々の参考になれば幸いです。 はじめに 本記事でお伝えしたいこと MonotaROのデータサイエンスチームの環境について MonotaROとバンディット MonotaROにバンディットを導入する際の課題や必要な要件 実際に構築したデータパイプラインの紹介 こぼれ話(負荷テストで驚いたお話) データパイプラインによって変わったこと 終わりに(まとめ) 本記事でお伝えしたいこと MonotaROの推論APIの裏で動くデータパイプラインの紹介。 バンディットをMonota

                                                                          MonotaROのMLOps〜バンディットアルゴリズムの効果を最大化するリアルタイムデータパイプライン〜 - MonotaRO Tech Blog
                                                                        • MLOps guide

                                                                          A collection of materials from introductory to advanced. This is roughly the path I’d follow if I were to start my MLOps journey again. Table of contents ML + engineering fundamentals MLOps …. Overview …. Intermediate …. Advanced Career Case studies Bonus ML + engineering fundamentals While it’s tempting to want to get straight to ChatGPT, it’s important to have a good grasp of machine learning, d

                                                                          • How Optimizing MLOps Can Revolutionize Enterprise AI

                                                                            How to Use Multiple GitHub Accounts Git is a popular tool for version control in software development. It is not uncommon to use multiple Git accounts. Correctly configuring and switching Git accounts is challenging. In this article, we show what Git provides for account configuration, its limitations, and the solution to switch accounts automatically based on a project parent directory location.

                                                                              How Optimizing MLOps Can Revolutionize Enterprise AI
                                                                            • カテゴリ類推の機械学習モデルをプロダクションに導入した話 - コネヒト開発者ブログ

                                                                              こんにちは。インフラエンジニアの永井(shanagi)です。 今回は、昨年から取り組んでいる機械学習の分野で、自分の作ったモデルをサービスに本番リリースする機会があったので、PoCで終わりがちな機械学習をプロダクト導入にこぎつけるためにどのようなプロセスを歩んだのかとそこで得た自分なりの知見を中心にご紹介できればと思います。 機械学習のプロダクト導入に向けては歩むステップが非常に多く、個々の詳細な内容について細かく書くと非常にボリューミーな内容になってしまうので、詳細は割愛し機会があればまたどこかでご紹介出来ればと思います。 内容は、ざっくり下記2つに絞りました。 どんな機能をリリースしたのか? 導入までの全体アプローチ ちなみに、なぜインフラ畑の自分が機械学習をやっているのかについては、昨年末に下記ブログにまとめたのでもし興味がある方がいれば読んでみてもらえればと思います。 kobito

                                                                                カテゴリ類推の機械学習モデルをプロダクションに導入した話 - コネヒト開発者ブログ
                                                                              • 画像系機械学習プロダクトで手元のスクリプトとデプロイ環境の精度が違うときのチェックリスト - 生き抜くぜ21世紀

                                                                                はじめに みなさんこんにちは、いかがお過ごしでしょうか。 機械学習もだいぶ広まってきて、右も左も無限に強い人ばかりで、はやく3億円稼いですべてから解放されて虹コン大好きクラブとして生きていきたい今日この頃です。 機械学習がだいぶ広まってくると、機械学習モデルをデプロイする人も増えてきていると思います。 しかし、機械学習モデルのデプロイは非常に複雑です。 モデル、依存ファイル、前処理/後処理、ライブラリ、その他を実験スクリプトと揃えながら、リクエストに対してレスポンスを返すサーバーを継続して稼働させる必要があるためです。 さらには複数人で開発する場合、コードすべてを把握することが難しい、といった困難も付随します。 すると当然、「手元で出ていた精度と、デプロイ環境にリクエストを投げたときの精度が違う」といったバグが生じます。 本日は、そんなときにバグ原因を見つける方針を記事にしたいと思います。

                                                                                  画像系機械学習プロダクトで手元のスクリプトとデプロイ環境の精度が違うときのチェックリスト - 生き抜くぜ21世紀
                                                                                • Feature Attributionを使ったモデルモニタリングの開発と実際の機械学習モデルへの適用

                                                                                  ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog こんにちは。ヤフーのAIプラットフォームチームに所属している黒松です。 今年の1月に公開した「MLOpsを支えるヤフー独自のモデルモニタリングサービス」の記事ではヤフーが内製したモデルモニタリングツールであるDronach(ドロナック)をご紹介しました。 本記事では、新たにDronachに追加したFeature Attributionドリフト検定機能を実例とともにご紹介します。 AIプラットフォームチームについて 私が所属しているAIプラットフォームチームは、社内のAI活用を促進するための共通プラットフォームを開発し提供することが目的のチームです。 AIプラットフォームは、Namespaceで分離されたマルチテナントKuberne

                                                                                    Feature Attributionを使ったモデルモニタリングの開発と実際の機械学習モデルへの適用

                                                                                  新着記事