並び順

ブックマーク数

期間指定

  • から
  • まで

361 - 400 件 / 477件

新着順 人気順

MLOpsの検索結果361 - 400 件 / 477件

  • WorkflowsとVertex AIカスタムジョブによるお手軽MLワークフロー

    はじめに 開発プロセスにおける定型的な作業を自動化することは、DevOpsを実現するための一つの要素と言えます。機械学習においても同様に、前処理や学習などといった一連の処理工程をワークフローとして自動化することは、MLOpsの実現する上で重要です。 本記事では実際にMLワークフローを構築しますが、特に以下の項目を意識します。 サーバーレス 汎用なサービスを組み合わせたシンプルな構成 サーバーレスとは、インフラの管理を意識することなくサービスを利用できるという性質のことです[1]。必要なタイミングだけ計算リソースを利用することで、コストを抑えることができます。また今回利用するVertex AIのカスタムジョブでは、メモリやGPUなどを細かく設定できるため、実施する処理に応じて柔軟に計算リソースを利用することができます。 汎用なサービスを組み合わせて用いることは、技術導入のハードルを下げること

      WorkflowsとVertex AIカスタムジョブによるお手軽MLワークフロー
    • MLOps - Practices

      MLOpsに対して, 各社が取り組んでいる内容や知見を集めたものになります. 各社のテックブログや登壇での発表資料を中心に 「Knowledge」 に整理しています. また, 個人ブログでの発信内容については, サービスやプロダクトの 「Tips」 として別で整理する予定です. 連絡先はこちらになります → , & . Projects Knowledge: MLOpsに対する各社の取り組みを整理したリンク集 Tips: MLOpsに関連したサービスやプロダクトに関するTips Update Information 2022-06-26: 「Guides」に関して「Amazon SageMakerでつくるMLOps」の事例を,「All in one」に関して「KARTEにおけるMLOpsの変遷」の事例をそれぞれ1件追加 2022-06-18: 「パイプライン」に関して「スタンバイ」の事例を

        MLOps - Practices
      • Vol.04 LLMOps に取り組み始めた話 - Sansan Tech Blog

        技術本部Strategic Products Engineering Unit Contract One Devグループの伊藤です。契約データベース「Contract One」の開発に携わっています。 Contract Oneでは、GPTを活用した機能をいくつか提供しています。 今回は、Contract OneのGPTを活用した機能開発のために、LLMOpsの取り組みの一環としてLangfuseを導入し始めた話をします。 なお、本記事は【Strategic Products Engineering Unitブログリレー】という連載記事のひとつです。 buildersbox.corp-sansan.com はじめに Contract Oneでは、GPTを活用した文書内検索 *1 と要約機能 *2 を約1年前にリリースし、現在も提供しています。 GPTは自然言語形式の入力をAPI形式で処理でき

          Vol.04 LLMOps に取り組み始めた話 - Sansan Tech Blog
        • GitHub - EthicalML/awesome-artificial-intelligence-guidelines: This repository aims to map the ecosystem of artificial intelligence guidelines, principles, codes of ethics, standards, regulation and beyond.

          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

            GitHub - EthicalML/awesome-artificial-intelligence-guidelines: This repository aims to map the ecosystem of artificial intelligence guidelines, principles, codes of ethics, standards, regulation and beyond.
          • GitHub - graviraja/MLOps-Basics

            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

              GitHub - graviraja/MLOps-Basics
            • Airflowの使い勝手と他のワークフローエンジンの紹介(2020年) - Qiita

              この記事でやること ワークフローエンジンであるAirflowの使い方のポイントを書きます 私はGCPのCloud Composerで使っています ※ワークフローエンジンについては以前こちらに書きました https://qiita.com/elyunim26/items/15db924e4c9833e5050a MWAA来ましたね ちょうど、AWSのフルマネージドAirflow(MWAA)も来ましたね 使い始めるかたもいらっしゃるのではないでしょうか https://dev.classmethod.jp/articles/amazon-managed-workflows-for-apache-airflow-mwaa-ga/ AWS MWAAの利用料としてはGCPのCloud Composerと似たようなレンジで400-600$/月くらいはかかってしまいそうです https://aws.am

                Airflowの使い勝手と他のワークフローエンジンの紹介(2020年) - Qiita
              • Polyaxon を機械学習の実験プラットフォームとして導入した話 | メルカリエンジニアリング

                Merpay Advent Calendar 2020 の12日目は、メルペイで MLOps を担当している ML Platform チームの Mai Nakagawa がお送りします。 今回は、機械学習の実験を効率よく実行・管理するために Polyaxon という OSS のツールを導入した話をします。 Polyaxon 導入前の課題 Polyaxon について言及する前に、まずは Polyaxon 導入前に抱えていた課題について話します。それは機械学習の実験フェーズが属人化してしまっていたことです。下の図のように機械学習のワークフローを大きく実験フェーズ(Experiment Phase)、本番環境に機械学習モデルをデプロイするフェーズ(Productionize Phase)、本番環境で機械学習モデルを運用フェーズ(Operating Phase)の3フェーズに分けると、Produc

                  Polyaxon を機械学習の実験プラットフォームとして導入した話 | メルカリエンジニアリング
                • MLOpsの意義:機械学習プロジェクトを成功させるための鍵 - Qiita

                  Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに MLOpsエンジニアとして、MLOpsの意義を他人に説明する機会が定期的にあるので、まとめてみました。 このブログでは、MLOps(Machine Learning Operations)という概念を紹介し、機械学習プロジェクトの成功に向けてどのように活用し得るかを記載します。 MLOpsが登場した背景 機械学習(ML)は今日、ビジネスにおいて重要な役割を果たしています。 しかし、機械学習プロジェクトというのは「データサイエンティストが自身のラップトップでモデルを開発すれば終わり」ではありません。そのモデルがシステム・プロダク

                    MLOpsの意義:機械学習プロジェクトを成功させるための鍵 - Qiita
                  • GCP:AI platform pipelinesで MLOpsを実践した

                    こんにちは、GMOアドマーケティングのS.Rです。 前回は機械学習開発の標準戦略MLOpsを皆さんへ紹介しました。 今日はKubeflowを実践する為にGoogle Cloud のMLOps サービスAI platform pipelines で 簡単に手書き数字の分類システム(MNIST)を開発する例を紹介させていただきます。 ※なお、この記事中の図示は、特に断りが無い限り筆者が作成したものです。 AI platform pipelinesとは AI platform pipelinesはGoogle Cloudが提供している、機械学習開発の標準戦略MLOpsを自動化するクラウドサービスです。 AI platform pipelinesとKubeflow AI platform pipelinesはKubeflowに基づいて開発されたクラウドサービスです。AI Platformを利用する

                      GCP:AI platform pipelinesで MLOpsを実践した
                    • MLOps aims to unify ML system development | Google Cloud Blog

                      Craig WileyDirector of Product Management, Cloud AI and Industry Solutions AI-driven organizations are using data and machine learning to solve their hardest problems and are reaping the rewards. “Companies that fully absorb AI in their value-producing workflows by 2025 will dominate the 2030 world economy with +120% cash flow growth,”1 according to McKinsey Global Institute. But it’s not easy rig

                        MLOps aims to unify ML system development | Google Cloud Blog
                      • Operationalizing Machine Learning: An Interview Study

                        Organizations rely on machine learning engineers (MLEs) to operationalize ML, i.e., deploy and maintain ML pipelines in production. The process of operationalizing ML, or MLOps, consists of a continual loop of (i) data collection and labeling, (ii) experimentation to improve ML performance, (iii) evaluation throughout a multi-staged deployment process, and (iv) monitoring of performance drops in p

                        • ミニマルな機械学習の実験管理を目指して

                          (追記 (2021/12/30): ここで述べた方法を実践するための Python パッケージ luigiflow を公開しました。) (この記事は私が書いた英語版の記事 Toward the minimalism of machine learning experiment workflows を私自身が翻訳したものです。 元記事の作成にあたり友人の Sajjadur Rahman と Sara Evensen にフィードバックをいただいたことを感謝します。) 本記事は、ストックマーク Advent Calendar 2021 の 15 日目の記事です。 機械学習分野の研究者やエンジニアの多くにとって実験は業務の大きなコストを占めます。 そのため実験環境の構築が業務のパフォーマンスに直結することは言うまでもありません。 それと関連して近年 MLOps への注目が非常に高まっていますが、

                          • TFXの歴史を振り返りつつ機械学習エンジニアリングを提案する論文「Towards ML Engineering: A Brief History Of TensorFlow Extended (TFX)」

                            TFXの歴史を振り返りつつ機械学習エンジニアリングを提案する論文「Towards ML Engineering: A Brief History Of TensorFlow Extended (TFX)」 2021-01-17 この記事はMLOps Advent Calendar 2020の 25 日目の記事です。(盛大に遅れました) KDD2019 の招待講演で Google が TFX の歴史について発表されており、TFX 信者の自分としては発表内容が以前から気になっていたが、公開はされておらずなんとかして見れないかな~と思っていましたが、TensorFlow の Blogで該当の招待講演が論文化されたことを知ったのでメモがてら抄訳として残しておく。 注意)この翻訳記事は原著論文の著者陣からレビューはされていませんShunya Ueta, are providing a transla

                              TFXの歴史を振り返りつつ機械学習エンジニアリングを提案する論文「Towards ML Engineering: A Brief History Of TensorFlow Extended (TFX)」
                            • MLOps系プロダクトの布教活動報告 - Qiita

                              この記事はMLOps Advent Calendar 2021の18日目の記事です。 2016年にもTensorFlowとMLサービスの2016年の布教活動報告を書きましたが、ここ3年くらいはMLOps系の活動をメインにしてきたので、その報告です。COVID後はイベント登壇も減り、ブログ記事の執筆が多くなりました。その裏話的な内容です。 Feature Store のブログ記事 今年5月のGoogle I/OでVertex AIのMLOps系プロダクトがいくつかリリースされたので、その後にフォローアップのブログ記事を出し始めました。まずは6月にPMのAnandと書いた Kickstart your organization’s ML application development flywheel with the Vertex Feature Store(日本語版)です。 このプロダクト

                                MLOps系プロダクトの布教活動報告 - Qiita
                              • MLOpsことはじめ ~実験管理導入と学習基盤の構築~ | フューチャー技術ブログ

                                はじめにはじめまして、Strategic AI Group(以降SAIG)に在籍しています、2019年度入社の真鍋です。学生の頃よりクラウドやHadoop等、大規模分散システムの研究をしていました。その経験と私自身の希望もあり、SAIGでは主にインフラ担当として業務に取り組んでいます。 今回は私がAI分野のインフラに触れ、MLOpsを知り、SAIG全体で利用する学習基盤を構築するまでに得た知見を、一部ではありますが共有させていただければと思い筆を取りました。MLOpsについて興味を持たれていて、具体的な取り組みについて知りたいといった方に読んでいただければ幸いです。 概要本稿は下記の内容で構成しています。 MLOpsとは SAIGの課題 施策1:実験管理についての取り組み 施策2:SAIG学習基盤の構築 まとめと今後の展望 1. MLOpsとは私がアサインされたSAIGは、フューチャーの一

                                  MLOpsことはじめ ~実験管理導入と学習基盤の構築~ | フューチャー技術ブログ
                                • The Rise (and Lessons Learned) of ML Models to Personalize Content on Home (Part I) - Spotify Engineering

                                  The Rise (and Lessons Learned) of ML Models to Personalize Content on Home (Part I) At Spotify, our goal is to connect listeners with creators, and one way we do that is by recommending quality music and podcasts on the Home page. In this two-part blog series, we will talk about the ML models we build and use to recommend diverse and fulfilling content to our listeners, and the lessons we’ve learn

                                    The Rise (and Lessons Learned) of ML Models to Personalize Content on Home (Part I) - Spotify Engineering
                                  • Do you actually need a vector database? | Ethan Rosenthal

                                    Spoiler alert: the answer is maybe! Although, my inclusion of the word “actually” betrays my bias. Vector databases are having their day right now. Three different vector DB companies have raised money on valuations up to $700 million (paywall link). Surprisingly, their rise in popularity is not for their “original” purpose in recommendation systems, but rather as an auxillary tool for Large Langu

                                    • Step-by-step MLOps v1.2

                                      ▼ 更新情報 ・Azure Machine Learning 新機能サポート ・Managed Feature Store ・Registry etc... ・パイプラインジョブのデバッグ ・環境分離と計算リソース共有 ・LLMOps ▼ Prompt flowの動画 https…

                                        Step-by-step MLOps v1.2
                                      • Applied-ML Papers

                                        Curated papers, articles, and blogs on machine learning in production. Designing your ML system? Learn how other organizations did it. Star Table of Contents Data QualityData EngineeringData DiscoveryFeature StoresClassificationRegressionForecastingRecommendationSearch & RankingEmbeddingsNatural Language ProcessingSequence ModellingComputer VisionReinforcement LearningAnomaly DetectionGraphOptimiz

                                          Applied-ML Papers
                                        • Amazon EKSでKubeflowを立ち上げてJupyter Notebookを触るまでの道のり -Kubeflow v1.0.1 Released-

                                          COVID-19でリモートワークが推奨されているため自宅にこもりがちです。self-isolateするだけでなくself-studyに最適な時機なのではないでしょうか。そんなわけで以前より興味のあったKubeflowをEKSのKubernetesクラスタ上に設置して簡単なJupyter Notebookを作るテストを行ってみました。KubeflowはKubernetes上で機械学習のモデル開発やエンドポイントのデプロイをサポートするオープンソースのシステムです。データサイエンスの職能領域は主にビジネス寄りとされるデータサイエンティストとエンジニア寄りの機械学習エンジニアに枝分かれして語られます。機械学習エンジニア領域ではMLOpsの興隆と共に実際に構築したモデルを運用しテストおよび改善していく必要性が以前にも増して高まってきているようです。Amazon Sagemakerのようなマネージド

                                            Amazon EKSでKubeflowを立ち上げてJupyter Notebookを触るまでの道のり -Kubeflow v1.0.1 Released-
                                          • The Pragmatic Programmer for Machine Learning

                                            The Pragmatic Programmer for Machine Learning Engineering Analytics and Data Science Solutions Marco Scutari, Mauro Malvestio 2023-04-22 Preface Pitching new ideas by prefacing them with quotes like “Data scientist: the sexiest job of the 21st century” (Harvard Business Review 2012) or “Data is the new oil” (The Economist 2017) has become such a cliché that any audience (in business and academia a

                                            • Kedroで機械学習パイプラインに入門する - Qiita

                                              はじめに Kedroという機械学習向けパイプラインツールを使ってみたので備忘までに記事を書きます。 とりあえずパイプラインを組んでみて動いたところまで、です。もう少し使い込んで、別途投稿できればと思っています。 公式のチュートリアルの差分は、以下くらいかなと思います。(どっちもちょっとしたことですが) ホストを汚さないようにDockerコンテナ内でKedroプロジェクトを作成・開発していること node.pyは使わず、普段慣れ親しんだディレクトリ構成で普通にスクリプトを書いていること(それらをノードとしてパイプラインでつないでいる) パイプラインツールの必要性 依存関係が複雑になりがちな処理処理フローを管理したい データ取り込み→データ前処理→モデルのトレーニング→チューニング→デプロイメント、etc ジョブを並列実行したい コンポーネントごとにマシンスペックを柔軟に設定したい 前処理は高

                                                Kedroで機械学習パイプラインに入門する - Qiita
                                              • 機械学習で「メリットが分かりづらい」と思われがちなパイプラインを分かりやすく解説 - Qiita

                                                機械学習とパイプライン エンジニアの皆さんは、「パイプライン」といえば何を思い浮かべるでしょうか? 恐らく多くの人は、 ①最近ハッキングされたことで話題の、石油輸送管 ②基本情報試験などで頻出の、CPUの並行命令実行の仕組み を思い浮かべるかと思います。 ※画像はWikipediaより 機械学習分野でも、Scikit-LearnやMLOps系のツールにおいて頻出する用語であり、 何となく、「複数の処理を連続で行う仕組み」といったイメージを持たれている方が多いかと思います。 ですが、連続処理なら各処理を順番に実装すれば同様の機能を実現できるため、正直 「メリットがよく分からん!」 と思われている方も多いかと思います。 私もそう思っていましたが、調べてみると、場面によっては必要不可欠と言えるようなメリットがある事が分かったので、 記事にまとめようと思います パイプラインとは? パイプラインの概

                                                  機械学習で「メリットが分かりづらい」と思われがちなパイプラインを分かりやすく解説 - Qiita
                                                • https://pages.awscloud.com/rs/112-TZM-766/images/20201015_AWS%E3%81%A6%E3%82%99%E6%A7%8B%E7%AF%89%E3%81%99%E3%82%8BMLOps%E5%9F%BA%E7%9B%A4_%E9%85%8D%E5%B8%83%E7%89%88__AIMLTokyo7.pdf

                                                  • What is MLOps?

                                                    Machine learning operations, MLOps, are best practices for businesses to run AI successfully with help from an expanding smorgasbord of software products and cloud services. Note: This article was updated in March 2023 with the latest information on MLOps software and service providers. MLOps may sound like the name of a shaggy, one-eyed monster, but it’s actually an acronym that spells success in

                                                      What is MLOps?
                                                    • Mercari ML&Search Talk #3 ~MLOps & Platform~を開催しました #mercari_ai | メルカリエンジニアリング

                                                      プラットフォームの動作デモを25:59から行っていますので、動画でご覧ください。 トレーニングワークフローのサポートでは、次のようなソフトウェア・ライブラリが使われています。 ユーザーがKubeflow pipelineを作成 ローカルまたはCircle CI経由でデプロイ チームのGCPプロジェクトからDockerイメージなどを取得 トレーニングの結果をSlackで通知 トレーニング終了後、モデルのパラメーターと精度をmlflowに格納 モデルをチームのGCPプロジェクトにプッシュ 結果が悪い場合には再トレーニング MLプラットフォームの特徴 メルカリのMLプラットフォームは次のような特徴を持っています。 プロファイルは独立し、ユーザーは自分の作業しているプロジェクトのデータのみにアクセス可能 CPU/GPU/TPUなどのリソースはオンデマンドに提供 PrometheusとGrafana

                                                        Mercari ML&Search Talk #3 ~MLOps & Platform~を開催しました #mercari_ai | メルカリエンジニアリング
                                                      • MLシステムにおけるモデル・データの監視【概要編】 | フューチャー技術ブログ

                                                        ツールの紹介Great Expectations概要Great Expectationsは、ユーザー独自のデータ品質テストの作成、テストの実行、テスト結果の可視化を可能とするOSS Pythonライブラリです。用意されているテストが豊富でデータの品質チェックに特化していることが特徴です(用意されているテスト一覧)。 監視できる項目例 Input Metrics 欠損値、各値が範囲内か、columnの増減、統計値が範囲内か、データドリフト/スキュー、外れ値など 詳細データの品質テスト(テストのことをexpectation)、エラーの文章化(html形式でどのテストをパスし、どのテストでエラーを起こしたかが見れる)、プロファイリング(統計量の計算)が可能となっています。 ※Great Expectations 公式Docsより画像引用 懸念点としては、モデル精度の監視や特徴量寄与率などのOut

                                                          MLシステムにおけるモデル・データの監視【概要編】 | フューチャー技術ブログ
                                                        • MLOpsを実現するSRE激闘の歴史

                                                          XP祭り2020登壇資料 MLOpsを実現するSRE激闘の歴史

                                                            MLOpsを実現するSRE激闘の歴史
                                                          • MLを運用環境に展開する前に知っておくべきこと - Francesca Lazzeri氏の講演より

                                                            Spring BootによるAPIバックエンド構築実践ガイド 第2版 何千人もの開発者が、InfoQのミニブック「Practical Guide to Building an API Back End with Spring Boot」から、Spring Bootを使ったREST API構築の基礎を学んだ。この本では、出版時に新しくリリースされたバージョンである Spring Boot 2 を使用している。しかし、Spring Boot3が最近リリースされ、重要な変...

                                                              MLを運用環境に展開する前に知っておくべきこと - Francesca Lazzeri氏の講演より
                                                            • Amazon SageMakerでマネージドなMLflowが使用できるようになりました | DevelopersIO

                                                              こんちには。 データアナリティクス事業本部 機械学習チームの中村(nokomoro3)です。 今朝目が覚めたら、Amazon SageMakerでマネージドなMLflowが使用可能になっていました。 アナウンス Amazon SageMaker now offers a fully managed MLflow Capability - AWS 公式ブログ Announcing the general availability of fully managed MLflow on Amazon SageMaker | AWS News Blog ドキュメント Manage machine learning experiments using Amazon SageMaker with MLflow - Amazon SageMaker 料金 Machine Learning Service

                                                                Amazon SageMakerでマネージドなMLflowが使用できるようになりました | DevelopersIO
                                                              • Analystのスループットを継続的に最大化させるデータ基盤の運用思想

                                                                この記事は「Eureka Advent Calendar 2020」の16日目の記事です。 こんにちは、Head of BIの鉄本です。 15日目は Jun Ernesto Okumuraによるエウレカのデータ組織運営の1年間でした。今日はこの話に関連して、もう少し具体的にEureka BIチームのAnalystの分析フローを支える分析環境について書きます。主に運用の思想や仕組みづくりの紹介になります。 想定読者Data Lake・Data Ware House・Data Martなどのデータ基盤周辺知識があるAnalystを活かすデータ基盤の開発運用に興味がある前置きBIチームの紹介やAnalystの業務フローに関する前置きが少し長くなりますがお付き合いくださいませ。 お急ぎの方は、本題まで飛ばしてください。 チームのミッションとデータ基盤BIチームは、「価値のある意思決定」と「意思決定

                                                                  Analystのスループットを継続的に最大化させるデータ基盤の運用思想
                                                                • GitHub - edublancas/ml-testing: 🐍 Material for PyData Global 2021 Presentation: Effective Testing for Machine Learning Projects

                                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                    GitHub - edublancas/ml-testing: 🐍 Material for PyData Global 2021 Presentation: Effective Testing for Machine Learning Projects
                                                                  • オライリーから「仕事ではじめる機械学習 第2版」を出版しました | Democratizing Data

                                                                    Table of Contents4/23に「仕事ではじめる機械学習 第2版」をtokorotenさんとhagino3000さんとともに出版しました。 電子版は、Kindleでは購入できない 1 のでぜひオライリー・ジャパンのサイトからDRMフリーのPDF、EPUBをご購入ください。 コードは今回はGitHubとGoogle Colaboratoryにあります。詳しくは、GitHubのレポジトリをご覧ください。 https://github.com/oreilly-japan/ml-at-work なお、第一版のコードは1st-editionタグにあります。 同人誌や初版のEbookが出た2017年から4年の歳月を経て、この度改訂版を出すこととなりました。 皆さまのおかげでAmazonの書籍ランキングでも、予約のタイミングなのに10位になったこともあったそうです。ありがたい限りです。 [2

                                                                      オライリーから「仕事ではじめる機械学習 第2版」を出版しました | Democratizing Data
                                                                    • How Meta measures the management of its AI ecosystem

                                                                      At Meta, we have developed measurement processes for specific metrics about AI systems that can be used to make managing models more effective and efficient, and we’ve tested these processes across a diverse ecosystem of tools and systems. We believe these techniques can be applied broadly in other organizations managing AI ecosystems, so we are sharing them here. AI development ecosystems are inc

                                                                        How Meta measures the management of its AI ecosystem
                                                                      • Open Source LLM Tools

                                                                        Best viewed on desktops. On a phone screen, some columns are hidden. When a new repo is indexed, changes in stars in the last day/week are default to 0. Full analysis: What I learned from looking at 900 most popular open source AI tools. Find these repos on GitHub at cool-llm-repos. See the most active open source AI developers. Add missing repos to the list.

                                                                          Open Source LLM Tools
                                                                        • 【Techの道も一歩から】第37回「データの集計に Luigi を使ってみる」 - Sansan Tech Blog

                                                                          こんにちは。 DSOC R&D グループの高橋寛治です。 あるプロジェクトにおいて、 「DB からデータを取得し整形した結果を出力する」という一連の処理をパイプラインパッケージである Luigi を用いて行いました。 ワークフローの監視や記述が簡単に記述できて良かった*1と感じたため、ここで流れを紹介したいと思います。 Luigi Luigi は Spotify が開発・運用しているオープンソースの Python のワークフローパッケージです。 pip install luigi で簡単に導入できます。 Luigi は単独で動作させたり、スケジューラによりスケジューリングや依存関係の可視化、タスク履歴を閲覧することができます。 ワークフローはタスクから構成されます。 ざっくり説明すると、一つのタスクは一つのクラスで表現されます。 クラスは Luigi が準備しているクラスを継承し、必要な実

                                                                            【Techの道も一歩から】第37回「データの集計に Luigi を使ってみる」 - Sansan Tech Blog
                                                                          • NECがAI運用支援で2つの新技術、「MLOps as a Service」は何に効くのか

                                                                            NECがAI(人工知能)モデルの運用、保守を支援する2つの新技術を開発した。同社が提供するMLOps(Machine Learning Operations)支援サービスに組み込む。MLOpsとは機械学習モデルを本番環境で運用しながら開発を続けることで価値を高める手法。いわば「MLOps as a Service」を通じて、ユーザーのMLOps実現を支援したい考えだ。 新人データサイエンティストをはじめ、AIの知識が乏しい人でも適切にAIモデルを運用できるようにする。NECが開発した2つの技術はユーザーをどう支援するのか。またユーザー企業のAIモデル担当者が自ら運用、保守できるようにするMLOps as a Serviceのメリットは何か、見ていこう。 精度低下の原因分析にかかる工数を半減 開発した技術の1つは、運用しているモデルの精度が劣化した原因の分析を支援するもの。もう1つがユーザー

                                                                              NECがAI運用支援で2つの新技術、「MLOps as a Service」は何に効くのか
                                                                            • MLflow と Amazon SageMaker による機械学習のライフサイクル管理 | Amazon Web Services

                                                                              Amazon Web Services ブログ MLflow と Amazon SageMaker による機械学習のライフサイクル管理 機械学習(ML) や MLOps の急速な普及に伴い、企業は ML プロジェクトの実験から本番までの速度を高めたいと考えています。 MLプロジェクトの初期段階では、データサイエンティストは、ビジネスニーズに対するソリューションを見つけるために、共同で実験結果を共有します。運用フェーズでは、本番に向けたさまざまなモデルのバージョンや、ライフサイクルの管理も必要です。この記事では、オープンソースのプラットフォームである MLflow がどのようにこれらの問題に対処しているかをご紹介します。完全に管理されたソリューションに興味のある方のために、Amazon Web Services は最近、re:Invent 2020で、機械学習のための初めての、継続的統合およ

                                                                                MLflow と Amazon SageMaker による機械学習のライフサイクル管理 | Amazon Web Services
                                                                              • 8年間の進化!CARTA MARKETING FIRMが機械学習基盤を刷新した理由とその成果 - CARTA TECH BLOG

                                                                                TL;DR CARTA MARKETING FIRMのデータサイエンスチームは、8年間にわたり機械学習基盤を進化させてきました。Luigi、AWS SageMaker、Prefectと変遷する中で、「データサイエンティストが最も付加価値を生み出す部分に集中し、時間を費やすことができる基盤」という目標に着実に近づいています。 Luigiでは開発環境構築や運用負荷が高く、柔軟性に欠けていました。 SageMakerではインフラ構築の複雑さやStep Functionsの制約が課題でした。 Prefectの導入により、Pythonのみでインフラからバッチ処理まで記述可能になり、A/Bテストの実施が容易になりました。また、ログ監視の一元化により運用効率が大幅に向上しました。 この進化を通じて、データサイエンティストの生産性と施策の実験サイクルが大幅に改善されました。 概要 CARTA MARKET

                                                                                  8年間の進化!CARTA MARKETING FIRMが機械学習基盤を刷新した理由とその成果 - CARTA TECH BLOG
                                                                                • MLOps roadmap 2024

                                                                                  The MLOps engineer role is different from an ML engineer role. Even though the role varies from company to company, in general, ML engineers focus more on bringing individual projects to production, while MLOps engineers work more on building a platform that is used by machine learning engineers and data scientists. To build such platforms, lots of different skills are required. Here is a roadmap

                                                                                    MLOps roadmap 2024

                                                                                  新着記事