並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 80 件 / 130件

新着順 人気順

mlflowの検索結果41 - 80 件 / 130件

  • PyCaretとMLflowで機械学習の実験を簡単に実行・記録する - DATAFLUCT Tech Blog

    こんにちは!nakamura(@naka957)です。今回はPyCaretとMLflowを用いたAutoMLと実験記録を連携した活用方法をご紹介します。 今回は様々な機械学習アルゴリズムの比較・モデル実装に加えて、行った実験記録の管理を簡単に行う方法をご紹介します。実施事項がたくさんありますが、PyCaretとMLflowの活用で少ないコード行数で簡単に実施できます。 PyCaretは機械学習モデルの実装を簡単に行えるOSSですが、PyCaretからMLflowを呼び出すこともでき、実験記録の管理も同時に行えます。 【PyCaret】 ■ AutoMLライブラリPyCaretを使ってみた〜モデル実装から予測まで〜 ■【続き】 AutoMLライブラリPyCaretを使ってみた 〜結果の描画〜 【MLflow】 ■ MLflowの使い方 - 機械学習初心者にもできる実験記録の管理 - ■ ML

      PyCaretとMLflowで機械学習の実験を簡単に実行・記録する - DATAFLUCT Tech Blog
    • DatabricksでMLflowを使う④ - モデルの呼び出し - - Qiita

      はじめに 以下の記事で、Databricks のマネージド型MLflowを使ってモデルのトレーニング、ライフサイクル管理を行いました。 DatabricksでMLflowを使う① - ノートブック上での実験トラッキング - DatabricksでMLflowを使う② - 実験パラメータとメトリクスの可視化 - DatabricksでMLflowを使う③ - モデルのライフサイクル管理 - 今回はトレーニングとステージングを行ったモデルを別のノートブックから読み込みたいと思います。 イメージとしてはトレーニングしたモデルを Pyspark ユーザー定義関数として読み込み、 pyspark のデータフレームに対して分散処理をかけるという流れになります。 セットアップ 呼び出したいモデルに対して"Run ID"を読み込みます。 # run_id = "<run-id>" run_id = "d3

        DatabricksでMLflowを使う④ - モデルの呼び出し - - Qiita
      • GitHub - Minyus/pipelinex: PipelineX: Python package to build ML pipelines for experimentation with Kedro, MLflow, and more

        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

          GitHub - Minyus/pipelinex: PipelineX: Python package to build ML pipelines for experimentation with Kedro, MLflow, and more
        • Tom Goldenberg: Kedro + MLflow - Reproducible and Versioned data pipelines at scale | PyData LA 2019

          www.pydata.org PyData is an educational program of NumFOCUS, a 501(c)3 non-profit organization in the United States. PyData provides a forum for the international community of users and developers of data analysis tools to share ideas and learn from each other. The global PyData network promotes discussion of best practices, new approaches, and emerging technologies for data management, processin

            Tom Goldenberg: Kedro + MLflow - Reproducible and Versioned data pipelines at scale | PyData LA 2019
          • Announcing the general availability of fully managed MLflow on Amazon SageMaker | Amazon Web Services

            AWS News Blog Announcing the general availability of fully managed MLflow on Amazon SageMaker Today, we are thrilled to announce the general availability of a fully managed MLflow capability on Amazon SageMaker. MLflow, a widely-used open-source tool, plays a crucial role in helping machine learning (ML) teams manage the entire ML lifecycle. With this new launch, customers can now effortlessly set

              Announcing the general availability of fully managed MLflow on Amazon SageMaker | Amazon Web Services
            • 【MLOps】docker/mlflowを使った競馬AI開発環境構築(2021年版)~ docker構築 ~ - Qiita

              今回は、分析データ用のデータベースやモデル管理用のmlflowをインストールするためのdocker環境の構築手順を紹介していきます。dockerに慣れない方は難しく感じる点もあると思うのですが、頑張っていきましょう。 docker環境構築手順 ローカル環境にdockerをインストールする 分析用データ保存用MySQLとデータ参照用Adminerを設定する mlflowとデータベース・リポジトリを設定する 今回は大サービスで、docker環境構築用のためのdockerfileを公開します!これを使えば簡単にあるコマンドを叩くだけで構築完了するので、感動しますよ! 1. ローカル環境にdockerをインストールする まずはdockerをインストールしましょう。公式サイトからdockerのインストーラをダウンロードして実行してください。 2. 分析用データ保存用MySQLとデータ参照用Admin

                【MLOps】docker/mlflowを使った競馬AI開発環境構築(2021年版)~ docker構築 ~ - Qiita
              • Python: MLflow Models の Custom Python Models でデータを Pickle 以外に永続化する - CUBE SUGAR CONTAINER

                以前、このブログでは MLflow Models の使い方について以下のようなエントリを書いた。 この中では、Custom Python Models を作るときに、データを Python の Pickle 形式のファイルとして永続化していた。 今回は、それ以外のファイルにデータを永続化する方法について書いてみる。 blog.amedama.jp 使った環境は次のとおり。 $ sw_vers ProductName: Mac OS X ProductVersion: 10.15.7 BuildVersion: 19H2 $ python -V Python 3.8.5 $ pip list | grep -i mlflow mlflow 1.11.0 もくじ もくじ 下準備 Pickle 形式のファイルにモデルを永続化する テキストファイルにインスタンスのアトリビュートを永続化してみる 下

                  Python: MLflow Models の Custom Python Models でデータを Pickle 以外に永続化する - CUBE SUGAR CONTAINER
                • MLflow: A Tool for Managing the Machine Learning Lifecycle

                  MLflow is an open-source platform, purpose-built to assist machine learning practitioners and teams in handling the complexities of the machine learning process. MLflow focuses on the full lifecycle for machine learning projects, ensuring that each phase is manageable, traceable, and reproducible. MLflow Getting Started Resources If this is your first time exploring MLflow, the tutorials and guide

                  • GitHub - aimhubio/aimlflow: aim-mlflow integration

                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                      GitHub - aimhubio/aimlflow: aim-mlflow integration
                    • Cloud RunでMLflowを動かす

                      やったこと Google Cloud RunでMLflowを動かしている記事がほとんど見つからなかったのでとりあえず動かしました。 前回の記事ではtensorboardで動かしたものになります。 今回はMLflowで動かして、その他にも認証周りの煩雑な設定手順を極力減らしてみました。 利点 アクセス制御をGoogleアカウントで可能です。この記事ではドメインで制御していますが、個人のメールアドレスで制御できます。 社内での実験やkaggleのチームでの共有が容易です VMやAppEngineよりも安いです 使えなくなるタイミング Cloud RunにCloud IAPが導入されたら、あまり意味がなくなるだろうと思っています。 費用 今の構成だと、 Cloud Storge : 結果のサイズ次第 Cloud SQL : 42円/日 Cloud Run : アクセス時のみ 少量の実験であれば、

                        Cloud RunでMLflowを動かす
                      • 「atmaCup#5 振り返り会」で「MLflow Tracking を用いた実験管理」について発表しました - u++の備忘録

                        昨日開催された「atmaCup#5 振り返り会」*1で「MLflow Tracking を用いた実験管理」について発表しました。本記事にリンク集を掲載します。 発表資料 コンペで使用していたGitHubリポジトリ https://github.com/upura/atma-comp05 自作ライブラリ「Ayniy」のGitHubリポジトリ github.com 自作ライブラリ「Ayniy」のドキュメント upura.github.io 発表再現動画 コンペ参加録 upura.hatenablog.com *1:atma.connpass.com

                          「atmaCup#5 振り返り会」で「MLflow Tracking を用いた実験管理」について発表しました - u++の備忘録
                        • 【MLOps】SQLiteを使ってMLFlowに入門してみた(初心者向け) - Qiita

                          0. はじめに 色々Pythonで機械学習の検証をしているときに、1回目と2回目の検証でどんなパラメータを使用して、どんな精度が出たのか?を記録するのにゴッチャで疲れてしまった。よって今更ながらMLFlowに入門してみたので初心者でも分かるように記録としてメモしておく。 動作環境 OS : Windows10 pro python: 3.9.6 (pyenv) mlflow: 2.1.1 PyGWalker: 0.1.4.3 jupyter notebook(vscode) 1. MLOps MLOpsとは、DevOps + Machine Learning の造語である。 簡単にだが説明する 1-1. DevOps(デブオプス)とは? 名前の通りですが、「Dev」と「Ops」の合体造語である。 つまり開発(Development)と運用(Operations)を組み合わせた言葉であり、開

                            【MLOps】SQLiteを使ってMLFlowに入門してみた(初心者向け) - Qiita
                          • MLFlowを使ってみる2 - projects - iMind Developers Blog

                            概要 MLFlowの機能をざっと試す第二弾。前回はtrackingを扱ったので今回はprojects。 projectsはdockerやcondaでプロジェクトの管理ができる。本稿ではdockerは扱わずcondaを利用する。 バージョン情報 mlflow==1.0.0 experimentの生成 今回の例で利用するexperimentを用意しておく。 MNISTの手書き数字分類を行うので、experiment名をmnist_digitとしてCLIから生成してみる。 $ mlflow experiments create --experiment-name mnist_digit tensorflowのプロジェクトを作る tensorflow(CPU版)のプロジェクトをmlflowで作ってみる。 まずは必要な依存関係をyamlで記述する。 # conda.yaml name: tf_exa

                              MLFlowを使ってみる2 - projects - iMind Developers Blog
                            • 実験管理を便利に行う MLflow Tracking に入門した - kakakakakku blog

                              実験管理やモデルレジストリなど,機械学習ライフサイクルをうまく管理するプラットフォームとして有名な「MLflow」に入門する.GitHub リポジトリの Star は 12000 もあってスゴイ!MLflow は MLOps の文脈でもよく聞くので,1度試しておこうと思った. 現在,MLflow には大きく「4種類」のコンポーネントがある. MLflow Tracking : 実験管理 / ハイパーパラメータや評価メトリクスなどを記録したり比較できたりする MLflow Projects : パッケージング / 機械学習を実行するための設定情報などを再現可能にする MLflow Models : モデル化 / さまざまなデプロイツールをサポートする汎用的なモデル形式を提供する MLflow Model Registry : モデルレジストリ / レジストリとしてモデルを管理する githu

                                実験管理を便利に行う MLflow Tracking に入門した - kakakakakku blog
                              • MLFlowでLightGBMの学習結果をtrackingしてみる - Re:ゼロから始めるML生活

                                結構前にMLFlowをいろいろ触ってみていたんですが、最近全然触っていなかったので色々見てみました。 www.nogawanogawa.com 前に自分が触っていたときよりだいぶ使いやすくなってたので、今回は最近の自分の用途に合わせて改めてMLFlowを使ってみます。 例題:LightGBMで回帰問題を解く Automatic Logging LGBMの木の構造を保存する コードの残骸 参考文献 感想 例題:LightGBMで回帰問題を解く 今回はLightGBMを使用して回帰問題を解くコードがすでにある状況について考えることにするので、特にLGBMのタスク自体については考えないことにします。 なんの問題を解くのかはおいておいて、多分きっとこんな感じでコードが書かれているとします。 import lightgbm as lgb import sklearn.preprocessing as

                                  MLFlowでLightGBMの学習結果をtrackingしてみる - Re:ゼロから始めるML生活
                                • 【セキュリティ ニュース】機械学習管理プラットフォーム「MLflow」に深刻な脆弱性 - 早期更新を(1ページ目 / 全1ページ):Security NEXT

                                  機械学習のライフサイクルを管理するプラットフォーム「MLflow」にパストラバーサルの脆弱性が明らかとなった。できるだけ早くアップデートを実施するよう呼びかけられている。 「同2.3.0」において「REST API」経由でモデルバージョンを作成した際、トラッキングサーバのローカルファイルにアクセスが可能となる相対パストラバーサルの脆弱性「CVE-2023-2356」が明らかとなったもの。 CVE番号を採番した脆弱性報告サイト「huntr」では、共通脆弱性評価システム「CVSSv3.1」のベーススコアを最高値である「10」とし、重要度を「クリティカル(Critical)」とレーティングしている。 開発チームでは、バグなどとともに同脆弱性を修正したアップデート「同2.3.1」を現地時間4月29日にリリース。できるだけ早期に同バージョンへ更新するよう利用者に呼びかけている。 (Security

                                  • [Jupyter ユーザ向け] mlflow で実験時の notebook も一緒に保存しよう - Qiita

                                    TL;DR Jupyter Notebook / Lab を使ってる人向け notebook で実験するときに実験前後で notebook を mlflow に上げておくと、再現性に困った時助かる notebook のアップロードは単純にはできなくて少し面倒 背景 機械学習の実験などで Jupyter notebook や Jupyter lab を使っている方は多いと思います。インタラクティブに扱えて便利な反面、グローバルな状態が見えづらく、セルの実行順序で結果が変わるなど、注意深く扱わないと再現性が著しく落ちてしまうというデメリットもあります。 全ての notebook が Run All Cells できちんと再現できればよいですが、現実的にはそうでない場合もあり、特に複数人で notebook を共有する場合などは難しく、実行順序の再現はある種の「職人技」が必要になります。 この記

                                      [Jupyter ユーザ向け] mlflow で実験時の notebook も一緒に保存しよう - Qiita
                                    • MLflow+AWS+SageMakerの環境を立ち上げる - Qiita

                                      機械学習の実験管理ツールの一つに、MLflowがあります。MLflowを使うと、学習時のハイパーパラメータや精度を記録することができ、効率的にモデルの開発を進めることができるようになります。機械学習の実験管理を検討されている方は、一度は聞いたことがあるツールかと思います。 MLflowをローカル環境で動かしたあと、これをクラウド上で利用するため、簡単な構成のサービスの動きを確認したいときがあるかと思います。しかし、MLflowをローカルではなくクラウド(特にAWS)上にデプロイし、クライアントが学習した結果が保存されるまでの流れを、通しで説明している情報は少ないと感じています。そこで本記事では、MLflowをAWS上にデプロイし、クライアントPCまたはSageMakerで実行された学習結果を確認するまでの手順を説明したいと思います。 はじめに MLflowをAWS上で動かすサンプルを探すと

                                        MLflow+AWS+SageMakerの環境を立ち上げる - Qiita
                                      • MLflow: 4. Model Registry を使った実験管理 - connecting the dots

                                        はじめに 環境情報 前回までのMLflowシリーズ MLflowとは Model Registryとは Model Registryでできること モデルのバージョン管理 モデルのステージの遷移管理 モデルのコード管理 モデルの概要管理 モデルのデプロイ管理 モデルサービング Model Registryのワークフロー 1.モデルの登録 2.モデルのバージョン登録 3.モデルステージ遷移 4.モデルサービング UIでの基本的な操作 1.モデルを登録する 2.モデルのバージョンを登録する 3.モデルのステージを登録する 4.モデルサービング APIでの基本的な操作 モデルを登録する モデルレジストリからMLflowモデルを取得する モデルレジストリからMLflowモデルをデプロイする MLflowモデル情報の追加と更新 まとめ 参考 はじめに 今回はMLflowシリーズの最後の機能であるMLf

                                          MLflow: 4. Model Registry を使った実験管理 - connecting the dots
                                        • MLflowを用いた分類エンジンの刷新 - Retrieva TECH BLOG

                                          こんにちは。レトリバの飯田(@HIROKIIIDA7)です。TSUNADE事業部 研究チームのリーダーをしており、分類エンジンの開発・マネジメント、検索分野の研究、チームマネジメントを行っています。 今回は、前回の記事から自己紹介に追加されている「分類エンジンの開発・マネジメント」について書いていきます。これは、チームで取り組みました。 経緯 レトリバでは、その前身のPreferred Infrastructure時代から自然言語処理に取り組んでいました。文書・文分類は基本タスクの一つであり、応用でも非常に多く取り組む機会があります。そのため、実験管理も含めたエンジンを10年以上前から作っていました。 このエンジンはコア部分がC++で作られていました。そのため、モデルの追加はC++で行うことになります。また、パラメータ管理をRailsで行っていた結果、新しいモデルのパラメータ設定はRail

                                            MLflowを用いた分類エンジンの刷新 - Retrieva TECH BLOG
                                          • MLflowをGKEで動かす快適な実験管理ハンズオン | AI tech studio

                                            AI Labの岩崎(@chck)です、こんにちは。今回は前記事よりも実践的な、AI Labにおける実験管理システムの話をしたいと思います。ここでいう実験とは、データを収集・加工し、統計や機械学習を用い、設定したタスクや仮説を明らかにすることです。実験管理とはその評価や使ったパラメータ及び実験コードを再現できる形で保管することを指します。 対象読者 個人や大学、企業所属でJupyterLab上の実験管理に苦労している方 チームでKaggle等のデータ分析コンペに参加している方 Kubernetes、GCP、Terraformといったキーワードに興味のある方 tl;dr MLflowをGKEに載せることで、高可用でユーザ認証を持つMLflow Tracking Serverを作りました。更にTerraformによる1command構築を目指しました。中規模以上の研究室を想定し、Load Bal

                                              MLflowをGKEで動かす快適な実験管理ハンズオン | AI tech studio
                                            • GitHub - hppRC/template-pytorch-lightning-hydra-mlflow-poetry: An easy to use ML template project using Pytorch-Lightning, Hydra, Mlflow, and Poetry.

                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                GitHub - hppRC/template-pytorch-lightning-hydra-mlflow-poetry: An easy to use ML template project using Pytorch-Lightning, Hydra, Mlflow, and Poetry.
                                              • Jupyter+MLflowが動作するKaggle環境をDockerでリモートサーバ上に構築する

                                                JupyterとMLflowが動作する環境をリモートサーバ上に構築する方法の備忘録です。 MLflow自体の使い方などは以下の記事が参考になるかと思います。 https://qrunch.net/@currypurin/entries/sECZEcH9OVg4K2iq tl;dr Dockerとdocker-composeがインストール済みの環境で以下のリポジトリのREADMEの通りに実行してください。 https://github.com/shinsuke27/kaggle-docker-with-mlflow Kaggleの公式Dockerイメージをベースに、自分専用のKaggle環境が立ち上がり http://localhost:8080/ http://localhost:5000/ でJupyterとMLflowにアクセスできるはずです。 構成 Dockerfile Docker

                                                  Jupyter+MLflowが動作するKaggle環境をDockerでリモートサーバ上に構築する
                                                • Easy Hyperparameter Management with Hydra, MLflow, and Optuna

                                                  Two major methods can be considered for hyperparameter management in machine learning. Configuring hyperparameters from the command line using argparse Hyperparameter management via configuration filesAn Example of a Typical Hyperparameter ManagementWhen using argparse for managing hyperparameters, it is convenient to change them directly from the command line, but the number of hyperparameters to

                                                    Easy Hyperparameter Management with Hydra, MLflow, and Optuna
                                                  • Apache Spark、MLflow、Delta Lakeを使いこなすための中級入門書 『Apache Spark徹底入門』発売

                                                    本書はビッグデータを主な対象とするデータ分析フレームワーク「Apache Spark」「MLflow」「Delta Lake」を使いこなすための中級者向け解説書です。 Apache Sparkの導入から説明し、Spark SQLとデータフレーム、データセットを紹介。Apache Sparkを用いたデータ分析においてどのように機械学習を利用すればいいのか、アルゴリズムの採用から実装まで解説します。 データベースエンジンの最適化やバージョニング(Delta Lake)、モデルを管理するMLflowについて詳しく取り上げているので、データ分析基盤を構築するための知識をひとまとめにして学べます。 また、日本語版のオリジナルコンテンツとして、pandas DataFrameとSparkDataFrameに関する各種データフレームの使い分け、LLMやEnglish SDK for SparkなどAIを

                                                      Apache Spark、MLflow、Delta Lakeを使いこなすための中級入門書 『Apache Spark徹底入門』発売
                                                    • MLflowをオンプレサーバーで構築する

                                                      こんにちは.今回は実験管理ツールであるMLflowをオンプレミスで構築する方法についてご紹介します. 導入の動機 機械学習を扱っていると,ハイパーパラメータやモデル,データセットを変更しながら様々な実験を行うことになります.この際,結果の比較を効率的に行える実験管理ツールを導入することで,モデルの開発に集中できます. この手の実験管理ツールは,MLOpsが盛んな今,TensorboardやWeight & Bias(wandb)など,様々ありますが,最近はMLflowが選択肢として大きく盛り上がっています. しかし,様々ある実験管理ツールの中で,データの外部送信を行わずに扱える「オンプレミス」「自前サーバ」という点に着目すると選択肢はさほど多くなく,最も使われているであろうMLflowを構築してみようと思います. MLflowとは Mlflowはオープンソースの機械学習のライフサイクル管理

                                                        MLflowをオンプレサーバーで構築する
                                                      • MLflow上でOptunaによって生成される大量のrunを整理する | フューチャー技術ブログ

                                                        はじめにこんにちは、SAIG/MLOpsチームでアルバイトをしている齋藤です。 MLflowは機械学習の管理を扱うツールとして、Optunaはハイパーパラメータを自動調整するツールとしてともに広く使用されているツールです。MLflowとOptunaを同時に利用した際に、Optunaが複数回試行することによってMLflow上にrunが大量に生成され、MLflow上で試行結果が見づらくなります。 本記事では、大量に生成されるrunに親のrunを付与することで、MLflowのWeb UIから見やすくする方法を提示します。 課題Optunaは事前に指定した範囲の中からハイパーパラメータの組み合わせを自動的に選択してモデルを学習して評価するという試行を繰り返すことで、良いハイパーパラメータを探索するツールであり、これにより手作業でハイパーパラメータを調整するのを省けます。 MLflowは機械学習の管

                                                          MLflow上でOptunaによって生成される大量のrunを整理する | フューチャー技術ブログ
                                                        • MLflowでkerasモデルなどを管理してみた - Qiita

                                                          (mlflow_example)$ pip install tensorflow (mlflow_example)$ pip install keras (mlflow_example)$ pip install mlflow (mlflow_example)$ pip install sklearn (mlflow_example)$ pip install matplotlib お試し最小限の環境がこれで作ることができました。 実装の前に・・・ 前提条件 今回は以下の条件をコマンドライン引数で指定できるようにします。 実験名 MLflowに与える実験名(例:mnist_cnn とか fashion_fully) データセット MNIST Fashion-MNIST モデル 全結合モデル CNNモデル パラメータ(今回は適当に・・・) 初期学習率 Epoch数 バッチサイズ MLflow

                                                            MLflowでkerasモデルなどを管理してみた - Qiita
                                                          • Canonical、機械学習の工程管理に向けた「Charmed MLFlow」を提供開始

                                                            英Canonicalは、機械学習の工程管理に向けたツール群「Charmed MLFlow」の提供を9月26日(現地時間)に開始した。Charmed MLFlowは、オープンソースの「MLFlow」をCanonicalがサポートなどを付けて提供するもの。同社の「Ubuntu Pro」サブスクリプションの契約者に提供するほか、ノードごとの料金を支払うことでも利用できる。Canonicalは、Charmed MLFlowについてセキュリティ・パッチを10年間提供し続けることを約束している。 Charmed MLFlowは、機械学習モデルを動かすたびに、コードやパラメーター、結果などを自動的に記録し、どのような条件でどのような結果が出たのかを容易に見直すことができる環境を提供する。機械学習実行時のさまざまな条件は、すべてを手入力で記録するのが難しいほどの量になる。実行時の条件と結果をセットで管理で

                                                              Canonical、機械学習の工程管理に向けた「Charmed MLFlow」を提供開始
                                                            • Python: mlflow.start_run(nested=True) は使い方に注意しよう - CUBE SUGAR CONTAINER

                                                              今回は MLflow Tracking のすごーく細かい話。 ソースコードを読んでいて、ハマる人もいるかもなと思ったので書いておく。 結論から先に書くと、MLflow Tracking には次のような注意点がある。 MLflow Tracking で標準的に使う API はマルチスレッドで Run が同時並行に作られることを想定していない 同時並行に作れそうなmlflow.start_run(nested=True) は、あくまで Run を入れ子にするときだけ使える この点に気をつけないと MLflow Tracking で記録されるデータが壊れる 使った環境は次の通り。 $ sw_vers ProductName: Mac OS X ProductVersion: 10.14.6 BuildVersion: 18G5033 $ python -V Python 3.7.7 $ pip

                                                                Python: mlflow.start_run(nested=True) は使い方に注意しよう - CUBE SUGAR CONTAINER
                                                              • Azure Machine LearningのVNETデプロイとMLFlowによるDatabricksのトラッキング - Qiita

                                                                はじめに Azure Machine LearningはVNETテクノロジーでセキュリティ保護することができるが、複数のサービスが関連しているため、その構成は少し複雑だ。公式docを参照することでおおよそその意味しているところは理解できるが、実際に構築するとなるとそれなりにはまるような予感がするため、今回実際に試してみようと思う。ちなみに公式docを読んでの理解としては以下の通り。 Machine Learning workspace自体はVNET内にデプロイすることができないが、Private Endpointを設定することでVNET経由でのアクセスに限定することはできる。 Machine Learning Compute クラスターは通常の仮想マシン同様にVNET内にデプロイすることができる。 推論用のクラスター (ACI, AKS) はVNET内にデプロイすることができる。 その他関

                                                                  Azure Machine LearningのVNETデプロイとMLFlowによるDatabricksのトラッキング - Qiita
                                                                • 新しいLLMOps機能を備えたMLflow 2.7のご紹介

                                                                  翻訳:Junichi Maruyama.  -  Original Blog Link MLflow 2のLLMOpsサポートの一環として、MLflow 2.7のプロンプト・エンジニアリングをサポートする最新のアップデートをご紹介します。 インタラクティブなプロンプト・インターフェイスでLLMプロジェクトの実行可能性を評価する プロンプトエンジニアリングは、ユースケースが大規模言語モデル(LLM)で解決できるかどうかを迅速に評価するための優れた方法です。MLflow 2.7 の新しいプロンプト・エンジニアリング UI を使用すると、ビジネス関係者はさまざまなベースモデル、パラ メータ、プロンプトを試して、出力が新しいプロジェクトを開始するのに十分有望かどうかを確認できます。新規のブランク・エクスペリメントを作成するか(既存のエクスペリメントを開く)、「新規実行」をクリックするだけで、インタ

                                                                    新しいLLMOps機能を備えたMLflow 2.7のご紹介
                                                                  • DatabricksでMLflowを使う③ - モデルのライフサイクル管理 - - Qiita

                                                                    はじめに 機械学習モデルのライフサイクル管理を行うオープンソースであるMLflowをDatabricksのUI上で使用する方法について書いています。 DatabricksでMLflowを使う① - ノートブック上での実験トラッキング - DatabricksでMLflowを使う② - 実験パラメータとメトリクスの可視化 - こちらの記事の続きとなります。 Databricksのマネージド型MLflowではトレーニングしたモデルのステージングについてもUI上で行うことができます。今回はこちらについて書きます。 モデルの登録 前回の記事の各実験の比較画面です。こちらから一番左のモデルを本運用に移行しようとしているとします。run idから個別ページへ移動します。 個別ページへ移動して下のほうへスクロールします。アーティファクトの「model」を選択すると「Register Model」と表示さ

                                                                      DatabricksでMLflowを使う③ - モデルのライフサイクル管理 - - Qiita
                                                                    • Azure Machine Learning と MLflow を使って最速で実験管理を行う方法 - Qiita

                                                                      はじめに こんにちは、修士時代に機械学習をしていた折、「model_adam_lr_0001_lstm_3_layer_e_512_h_1024.model」みたいな名前を付けてモデル管理をしていたイトーと言います。 今回は既にある Jupyter ノートブックに最小限の手間で実験管理を組み込んで上記のようなヤバい名前のファイルを手動でつける事態を回避し、さらには論文やらの締め切り間際に焦りすぎて「model_adam_lr_0001_lstm_3_layer_e_512_h_1024 - コピー (最新版) (こっちが最新) version2 コピー (最終版) .model」みたいな事態になって完全にお終いにならないようにするための方法を提案します。 私はマイクロソフトで Azure を取り扱うアーキテクトですので、今回は実験管理ツールとして Azure Machine Learnin

                                                                        Azure Machine Learning と MLflow を使って最速で実験管理を行う方法 - Qiita
                                                                      • MLflow 2.7と新たなLLMOps機能のご紹介 - Qiita

                                                                        プロンプトエンジニアリングの新たなUIとAIゲートウェイのアップデート MLflow 2系のLLMOpsサポートの一部として、MLflow 2.7でプロンプトエンジニアリングをサポートするための最新のアップデートを発表できることを嬉しく思います。 インタラクティブなプロンプトインタフェースによるLLMプロジェクトの実行可能性の評価 プロンプトエンジニアリングは、あるユースケースを大規模言語モデル(LLM)で解決できるかどうかをクイックに評価できる優れた手法です。MLflow 2.7の新たなプロンプトエンジニアリングUIによって、ビジネスのステークホルダーは、新規にプロジェクトをスタートするのに十分なアウトプットを得られるのかどうかを確認するために、様々なベースモデル、パラメータ、プロンプトを用いて実験することができます。インタラクティブなプロンプトエンジニアリングツールにアクセスするには、

                                                                          MLflow 2.7と新たなLLMOps機能のご紹介 - Qiita
                                                                        • 知識0でもAWSを使ってmlflowサーバーを無料で立ち上げる方法 - Qiita

                                                                          なぜAWSでmlflowサーバーを立ち上げようと思ったか はじめまして,機械学習を勉強し始めて1年になるものです。 この度はkaggleに初参加してみようと思ったのですが,kaggle notebookの実行ログをmlflowで管理したかったので,AWSを使って無料の範囲内でサーバーを立ち上げようと思いました。ただ,ネットにその情報が上がっていなかったので,他の方のために,知識0の人間が四苦八苦しながらmlflow serverを立ち上げた際の手順を記事にします。 ※セキュリティ的にはガバガバなので,今回立ち上げるサーバーに重要な情報をアップロードしないでください。 step1: アカウント作成とログイン これは誰でもできるはずです。途中でクレジットカードの登録が必要です。 下のような画面が見えたら成功です。 step2: アクセスキーIDとシークレットアクセスキーを設定 IAMを選択しま

                                                                            知識0でもAWSを使ってmlflowサーバーを無料で立ち上げる方法 - Qiita
                                                                          • ローカル環境のmlflowの記録をGCPに残す - Re:ゼロから始めるML生活

                                                                            前回までこんなことやってました。 www.nogawanogawa.com www.nogawanogawa.com mlflowの使い方がだんだん分かってきたので、実験の結果をgcp上に保存してみたいと思います。 参考にさせていただいたのはこちらの記事です。 towardsdatascience.com それではやってみます。 モチベーション クラウドの設定 プロジェクト/IAM Cloud SQL Cloud Storage ローカルの設定 mlflow サーバー やってみる 今回のオチ 感想 モチベーション mlflowは実験管理として非常に有効だと思っています。 ただ、いろんな環境で実験を行う場合に実験の結果が散在してしまうと、結局実験の管理ができていないことになってしまいます。 どの環境でmlflowを使って実験を記録したとしてもその結果は同一の保存先になっていることが望まれます

                                                                              ローカル環境のmlflowの記録をGCPに残す - Re:ゼロから始めるML生活
                                                                            • Docker + PostgreSQL + minio でMLflow 実行環境を構築 - Qiita

                                                                              # # our base image FROM python:3.9.16-buster # install Python modules needed by the Python app COPY requirements.txt /app/ RUN pip install -U pip && \ pip install --no-cache-dir -r /app/requirements.txt WORKDIR /app version: "3" services: app: build: context: ./ dockerfile: Dockerfile volumes: - ./mlflow:/app env_file: - ./.env environment: - DB_HOSTNAME=${DB_HOSTNAME} - DB_PORT=${DB_PORT} - DB_PA

                                                                                Docker + PostgreSQL + minio でMLflow 実行環境を構築 - Qiita
                                                                              • 機械学習サービスライフサイクルを管理するMLFLow 1.0の実力を検証してみる! - GMOインターネットグループ グループ研究開発本部

                                                                                2019.07.03 機械学習サービスライフサイクルを管理するMLFLow 1.0の実力を検証してみる! こんにちは、次世代システム研究室のT.D.Qです。 直近、機械学習のライフサイクルを管理できるPythonライブラリ・フレームワークについて調査しました。その中にMLFlowが面白いなと思って今回の記事で紹介したいと思います。 MLflowは、オープンソースで、機械学習処理のライフサイクル(実験・再現・デプロイ)を管理するプラットフォームです。機械学習ライブラリー(scikit-learn, Keras, TensorFlowなど)や言語(Python、Java、R)に依存しない、他の人と共有しやすいのが特徴で、機能として下記の3つで構成されています。 MLflow Tracking : 学習の実行履歴管理 MLflow Projects : 学習処理の実行定義 MLflow Mode

                                                                                  機械学習サービスライフサイクルを管理するMLFLow 1.0の実力を検証してみる! - GMOインターネットグループ グループ研究開発本部
                                                                                • PyCaret(+ MLflow)を使ったタイタニックの生存者予測 - Qiita

                                                                                  PyCaret で行うTitanicの生存者予測 PyCaret(+MLflow)の使い方を調べたので備忘録を残します。 題材としてはKaggleのチュートリアルでも使われるTitanicの生存者予測を行います。 参考資料 本投稿は以下記事を参考にしています。 PyCaret公式ドキュメント PyCaretとMLflowで機械学習の実験を簡単に実行・記録する データ データは以下よりダウンロードし、実行場所と同階層にtrain.csvとtest.csvを配置してください。 Titanic - Machine Learning from Disaster ライブラリのインストール 事前にMLFlowとPyCaretをインストールしておいてください。

                                                                                    PyCaret(+ MLflow)を使ったタイタニックの生存者予測 - Qiita