並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 240 件 / 486件

新着順 人気順

MLopsの検索結果201 - 240 件 / 486件

  • 最近の登壇資料と出版予定の書籍、インタビュー記事 - c-bata web

    最近は勉強会での登壇や書籍の出版などアウトプットが色々重なりました (昨年は一度もプロポーザルを書かず登壇依頼もなかったので随分増えました)。 そのたびにツイートもしてきましたが、ほとんど流れてしまって少しもったいない気がしたのでブログにまとめておこうと思います。 登壇資料 PyData.Tokyo Meetup #23「サイバーエージェントにおけるMLOpsに関する取り組み」 Optuna Meetup #1「CMA-ESサンプラーによるハイパーパラメータ最適化」 World Plone Day「Web パネルディスカッション(Python Webと非同期)」 CA BASE NEXT「サイバーエージェントにおけるMLOpsに関する取り組み」 書籍 実践Django Pythonによる本格Webアプリケーション開発(翔泳社:7月19日発売) エキスパートPythonプログラミング改訂3版

      最近の登壇資料と出版予定の書籍、インタビュー記事 - c-bata web
    • Human-in-the-Loop を題材にした機械学習の勉強会を開催した

      2022-03-31 先日の記事で告知した1のですが、昨夜、「Human In The Loop」を題材にした勉強会を開催してきました。 実際に Human In The Loop を扱った MLOps の論文2 を過去に書いているくらい興味のある分野なので、この領域を盛り上げていくために開催できてよかった。 オンライン勉強会でしたので、配信動画を Youtube で公開しております。 Human In The Loop に興味のある方はぜひご覧ください。 Machine Learning Casual Talks #13 (Online) 各発表について各発表の説明は割愛して、一言感想を述べさせていただきます。 Editors-in-the-loop なニュース記事要約システムの提案 by @upura業務成果を国際会議のワークショップに通されたの素晴らしいですね 👏 (自分も論文を出

        Human-in-the-Loop を題材にした機械学習の勉強会を開催した
      • GKEでMLバッチ運用のコツ - エムスリーテックブログ

        この記事はエムスリーAdvent Calendar 2023とMLOps Advent Calendar 2023の12日目の記事です。 AI・機械学習チームの北川です。 最近は猫のかまってアピールがすごすぎて、よく仕事の邪魔されます。 かまって欲しがる猫 現在AI・機械学習チームではMLのバッチをGoogle Kubernetes Engine(GKE)上で運用しています。 現在数えてみたところ240個以上のバッチがGKE上で動いているようです。 AI・機械学習チームでは2019年頃から約4年ほどGKE上でMLバッチを運用しています。 その間にコストの最適化や安定したバッチの運用などに力を入れてきました。 この記事では、主にスケールインとコスト最適化について説明しようと思います。 チームのMLについて全体を把握したい場合は以下の記事が詳しいです。 www.m3tech.blog GKEの

          GKEでMLバッチ運用のコツ - エムスリーテックブログ
        • Shinichi Takaŷanagi on Twitter: "”仕事ではじめる機械学習”的な内容の論文。「運用が難しいモデルはやめとけ」や「MLモデルにもテストをちゃんと書け」など大学での教育では見落としがちな内容を示唆している Return on Investment in Machine… https://t.co/RWPhVwYQEP"

          ”仕事ではじめる機械学習”的な内容の論文。「運用が難しいモデルはやめとけ」や「MLモデルにもテストをちゃんと書け」など大学での教育では見落としがちな内容を示唆している Return on Investment in Machine… https://t.co/RWPhVwYQEP

            Shinichi Takaŷanagi on Twitter: "”仕事ではじめる機械学習”的な内容の論文。「運用が難しいモデルはやめとけ」や「MLモデルにもテストをちゃんと書け」など大学での教育では見落としがちな内容を示唆している Return on Investment in Machine… https://t.co/RWPhVwYQEP"
          • AirflowとKubernetesで機械学習バッチジョブの運用負荷を低減した話

            ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog こんにちは。サイエンス統括本部でYahoo!ショッピングやPayPayモールのおすすめ機能(レコメンドシステム)の開発を担当している正沢です。 この記事では、別々に作られた複数の機械学習のバッチジョブ管理システムをApache Airflow(以降、Airflowと記載します)に集約して、運用負荷を低減した事例を簡単なシステム構成とともに紹介したいと思います。 ※ レコメンドシステムの開発ではプライバシーポリシーの範囲内で取得したデータを用いて行っています Yahoo!ショッピングのレコメンドとは? Yahoo!ショッピングやPayPayモールには、ユーザーがなにか商品を見ている時に、他にも興味を持ってもらえそうな商品を推薦するレ

              AirflowとKubernetesで機械学習バッチジョブの運用負荷を低減した話
            • Cloud Composer 2上でApache Airflow 2のワークフローを実装する - ZOZO TECH BLOG

              はじめに こんにちはZOZOデータサイエンス部MLOpsブロック松岡です。 本記事では先日リリースされたGCP(Google Cloud Platform)Cloud Composerの最新バージョンCloud Composer 2について紹介します。 ZOZOTOWNでは、多種多様な商品が毎日新たに出品されています。現在MLOpsブロックでは、機械学習で商品情報の登録を補佐するシステムを開発しています。 このシステムでは商品情報を保存するデータベースへ大量の書き込み処理が発生します。このアクセスによる負荷が日常業務に影響を及ぼすリスクを最小限に抑えるため、推論処理は夜間に行います。夜間に処理を完了させるには強力なマシンリソースを使用する必要があります。コストの観点から処理が行われていない時間はマシンリソースを使用停止する必要もあります。また、人手を介さずに安定して稼働出来る仕組みも求めら

                Cloud Composer 2上でApache Airflow 2のワークフローを実装する - ZOZO TECH BLOG
              • メルカリ「機械学習システムの設計パターン」を読んでみる - Qiita

                はじめに 4月23日にメルカリ 澁井氏(@cvusk )により、機械学習システムのデザインパターンについてのブログポスト、および実ドキュメントがGitHub Pages公開されました。 https://tech.mercari.com/entry/ml-system-design より引用 また、氏の「データ分析基盤Developers Night #4 〜活用されるデータ基盤のつくり方〜」における「メルカリのデータ分析を支える機械学習システムのデザインパターン」の発表が、 ログミーのまとめ YouTubeアーカイブ にあり、併せて視聴すると、どのように設計パターンという発想に至ったか、またメルカリにおける設計パターン活用の実例に触れられます。 機械学習のシステム構成を学ぶ記事をまとめる - Qiita には、ご本人により、こうした機械学習のエンジニアリング、アーキテクチャ面の参考リンクが

                  メルカリ「機械学習システムの設計パターン」を読んでみる - Qiita
                • Introduction to Practical Machine Learning

                  機械学習に携わる業務をするなかで必要になった、機械学習アルゴリズム以外の知識について概要を共有します。主に MLOps 周りと、その立ち上げに必要なものです。 ## Data science for software engineers 有賀 康顕, 中山 心太, 西林 孝著「仕事ではじめる機械学習 第 2 版」 オライリー・ジャパン 2021 年 https://www.oreilly.co.jp/books/9784873119472/ Miguel A. Hernán, John Hsu & Brian Healy (2019) A Second Chance to Get Causal Inference Right: A Classification of Data Science Tasks, CHANCE, 32:1, 42-49, DOI: 10.1080/09332480

                    Introduction to Practical Machine Learning
                  • Pytorch-lightning+Hydra+wandbで作るNN実験レポジトリ - Higu`s diary

                    Kaggle Advent Calender2020の 11日目の記事です。 昨日はhmdhmdさんのこちらの記事です! 2020年、最もお世話になった解法を紹介します - Qiita 明日はarutema47さんの記事です! (後ほどリンクはります) 本記事では、深層学習プロジェクトで使用すると便利なライブラリ、 Pytorch-lightningとHydraとwandb(Weights&Biases)について紹介したいと思います。 対象読者 Pytorchのボイラープレートコードを減らせないか考えている 下記ライブラリについては聞いたことあるけど、試すのは億劫でやってない 書いてあること 各ライブラリの役割と簡単な使い方 各ライブラリを組み合わせて使う方法 各ライブラリのリファレンスのどこを読めばよいか、更に勉強するにはどうすればよいか また、上記3つのライブラリを使用したレポジトリを

                      Pytorch-lightning+Hydra+wandbで作るNN実験レポジトリ - Higu`s diary
                    • GitHub - ml-tooling/best-of-ml-python: 🏆 A ranked list of awesome machine learning Python libraries. Updated weekly.

                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                        GitHub - ml-tooling/best-of-ml-python: 🏆 A ranked list of awesome machine learning Python libraries. Updated weekly.
                      • Best practices for operating large-scale recommender systems

                        Ensuring the health of a modern large-scale recommendation system is a very challenging problem. To address this, we need to put in place proper logging, sophisticated exploration policies, develop ML-interpretability tools or even train new ML models to predict/detect issues of the main production model. In this talk, we shine a light on this less-discussed but important area and share some of th

                          Best practices for operating large-scale recommender systems
                        • Google Cloud が Vertex AI を公開: 各種 ML ツールを統合したプラットフォーム | Google Cloud 公式ブログ

                          ※この投稿は米国時間 2021 年 5 月 19 日に、Google Cloud blog に投稿されたものの抄訳です。 本日の Google I/O にて、マネージド機械学習(ML)プラットフォームである Vertex AI が一般提供になることが発表されました。このプラットフォームは、企業において人工知能(AI)モデルのデプロイおよび維持を迅速に行えるようにするものです。Vertex AI は、他の競合プラットフォームに比べ、モデルのトレーニングに必要なコードの行数をおよそ 80% 少なくできるのが特長です[1]。これにより、専門知識の深浅を問わず、あらゆるレベルのデータ サイエンティストや ML エンジニアが機械学習オペレーション(MLOps)を実装し、開発ライフサイクル全体を通じて効率的に ML プロジェクトを構築、管理することが可能となります。 現在、データ サイエンティストは別

                            Google Cloud が Vertex AI を公開: 各種 ML ツールを統合したプラットフォーム | Google Cloud 公式ブログ
                          • Monitoring Machine Learning Models in Production

                            Introduction Once you have deployed your machine learning model to production it rapidly becomes apparent that the work is not over. In many ways the journey is just beginning. How do you know if your models are behaving as you expect them to? What about next week/month/year when the customer (or fraudster) behavior changes and your training data is stale? These are complex challenges, compounded

                            • The Linux Foundation、機械学習向けプラットフォーム「MLflow」をプロジェクトに追加

                              The Linux Foundation、機械学習向けプラットフォーム「MLflow」をプロジェクトに追加:「機械学習のベストプラクティスを組み込む」 The Linux Foundationは「MLflow」を新たにLinux Foundationプロジェクトに加えた。MLflowは、Databricksが開発した、特定の機械学習フレームワークや言語に依存しない機械学習向けプラットフォーム。機械学習の開発ライフサイクルを管理する。

                                The Linux Foundation、機械学習向けプラットフォーム「MLflow」をプロジェクトに追加
                              • ヤフーのサイエンス組織におけるMLOps推進チームの取り組み

                                質問内容に対して、手動で実行しその結果をドキュメントに残していれば0.5、CIなどに組み込まれ自動実行されている場合には1.0、どちらにも該当しない場合には0をつけます。各領域においてスコアを合算し、そのスコアの最小値が最終的なML Test Scoreです。従いまして、特定の領域でスコアが高くても、別の領域のスコアが低ければその結果が採用されることになるため、高スコアを得るには全ての領域で高スコアを取る必要がある厳しいものです。 一方、ML Test Scoreを進めるにあたり、同じプロダクトへの継続的な計測であっても回答者が変わった際に回答基準にぶれが生じる課題が発生しました。対策として、設問一つずつに対して社内の状況なども加味した判断基準を作成し、そちらをもとに回答をしてもらうようにしました。具体的には下記のようなものです。 特徴量・データ領域 質問内容: 新しい特徴量は素早く追加可

                                  ヤフーのサイエンス組織におけるMLOps推進チームの取り組み
                                • 大量のユーザーデータを横断的に使うために LINEのデータサイエンティストが気をつけているいくつかのこと

                                  2020年11月25〜27日の3日間、LINE株式会社が主催するエンジニア向け技術カンファレンス「LINE DEVELOPER DAY 2020」がオンラインで開催されました。そこで LINEのフェローであり、Data Science and Engineeringセンターに所属する並川淳氏が、「LINEではどのようにサービス横断でのデータ活用を実現しているのか」というテーマで、LINEにおけるデータの扱い方について共有しました。 LINEにおけるデータ活用の取り組み 並川淳氏(以下、並川):本日は「LINEではどのようにサービス横断でのデータ活用を実現しているのか」というタイトルで、並川が発表いたします。私は、LINEではふだん機械学習に関わる開発全般を担当しています。ですが、今日は機械学習に限らず、LINEにおけるデータ活用の取り組みについて幅広く紹介させてもらえればと思っています。よ

                                    大量のユーザーデータを横断的に使うために LINEのデータサイエンティストが気をつけているいくつかのこと
                                  • メルカリShopsを支えるMonorepo ML開発環境 | メルカリエンジニアリング

                                    こんにちは!SouzohのMLチームでSoftware Engineerをしているwakanaです。 SouzohのMLチームは2021年4月にスタートし、ちょうど2年が経ちます。当時1人だったメンバーも、今では4人になり、レコメンデーションを中心に5, 6個の機能を提供するようになりました。MLOpsも成熟し、より新しく高度なML機能開発に集中して取り組める環境が整ってきていると感じています。 そこでこの記事では、立ち上げから2年たった今SouzohのPython, ML環境がどのようになっているか紹介しようと思います。これからPythonやMLのMonorepoでの開発環境を整えようとしている方、特に少人数での運用を考えてる方の参考になれば嬉しいです。 TL;DR SouzohではPoetry, Bazel, VertexAI Pipelinesで快適なMonorepo開発環境を実現

                                      メルカリShopsを支えるMonorepo ML開発環境 | メルカリエンジニアリング
                                    • DynalystのML監視の取り組み事例 | CyberAgent Developers Blog

                                      ML監視は従来のソフトウェア開発の監視要素に加え、モデルや予測値、データに関する監視が必要とされています。 監視の優先順位 上述のようにML監視項目は数多くあり、いきなり全ての監視項目を導入するのは難しいです。 クラウドベンダー各社のMLOpsの成熟度モデル [3]のように、ML監視も段階的に取り組んでいくことが望ましいと言えます。 A Comprehensive Guide on How to Monitor Your Models in Productionの記事ではGoogleのMLOps成熟度モデルに合わせた監視項目を取り上げています。 引用: A Comprehensive Guide on How to Monitor Your Models in Production [4] EVIDENTLY AIが公開してるMonitoring ML systems in product

                                        DynalystのML監視の取り組み事例 | CyberAgent Developers Blog
                                      • BERTを使ったMLバッチ処理実サービスのアーキテクチャとMLOpsの取り組み

                                        こんにちは、Development部門に所属しているSREの佐藤と申します。 Development部門では複数プロダクト共通の基盤構築や、新技術の検証、インフラ整備などを幅広く担当しています。これまでストックマークではCI/CD基盤の構築やAWS上で構築するインフラのコード化、ニュース収集基盤のアーキテクチャの改善や運用負荷軽減から、製品利用状況のデータ分析基盤構築などに取り組んできました。 今日はAstrategyという製品でのMLOpsの取り組みについて話します。 AstrategyについてAstrategyは国内外Webメディアを対象として情報を収集・構造化し、調査・報告業務を包括的にサポートする検索プラットフォームです。 図1: 「言葉のAI」自然言語解析を用いたオープンデータ解析ツール 複数の分析画面を提供しており、目的に応じて異なる観点で市場変化や競合動向を可視化できます。

                                          BERTを使ったMLバッチ処理実サービスのアーキテクチャとMLOpsの取り組み
                                        • MLOpsマルチテナントクラスタへのArgo CDの導入と運用 - ZOZO TECH BLOG

                                          はじめに こんにちは。ML・データ部MLOpsブロックの築山(@2kyym)です。 MLOpsブロックでは2022年の上期からArgo CDの導入に着手しました。本記事ではArgo CDの導入を検討した背景から導入のメリット、また導入における公式マニフェストへの変更点や、運用において必須である認証や権限管理など、具体的な手順についてご紹介します。少しでもArgo CDの導入を検討している方の助けになれば幸いです。 またArgo CDを導入するきっかけとなった、複数運用していたKubernetesクラスタを1つに集約するマルチテナントクラスタへの移行についても触れます。マルチテナントクラスタの設計や具体的な移行作業については述べると長くなってしまうため、詳細については改めて別の記事にてご紹介できればと思います。 Argo CDについては、昨年の計測SREブロックの記事でも触れられていますので

                                            MLOpsマルチテナントクラスタへのArgo CDの導入と運用 - ZOZO TECH BLOG
                                          • MLOps のこれまでとこれから

                                            機械学習の運用に関するさまざまな取り組みについて、過去・現在・未来の観点からまとめた資料です。

                                              MLOps のこれまでとこれから
                                            • TechCrunch | Startup and Technology News

                                              To give AI-focused women academics and others their well-deserved — and overdue — time in the spotlight, TechCrunch has been publishing a series of interviews focused on remarkable women who’ve contributed to…

                                                TechCrunch | Startup and Technology News
                                              • Using MLOps to Bring ML to Production/The Promise of MLOps

                                                In this final Weave Online User Group of 2019, David Aronchick asks: have you ever struggled with having different environments to build, train and serve ML models, and how to orchestrate between them? While DevOps and GitOps have made huge traction in recent years, many customers struggle to apply these practices to ML workloads. This talk will focus on the ways MLOps has helped to effectively in

                                                  Using MLOps to Bring ML to Production/The Promise of MLOps
                                                • AI Platform Pipelines の機械学習基盤への導入 - MicroAd Developers Blog

                                                  こんにちは、マイクロアド機械学習エンジニアチームの河本(@nnkkmto)です。今回、モデル学習における課題解決に向けて GCP における機械学習基盤に AI Platform Pipelines (Kubeflow Pipelines) を導入しました。今回はその内容について紹介します。 従来の方法 抱えていた課題 手段:AI Platform Pipelines 導入時の方向性 導入内容 実行処理 CI / CD 終わりに 参考 従来の方法 マイクロアドでは学習実行基盤として GCP (Google Cloud Platform) を採用しています。 定期的な学習が必要な推論モデルは、 AI Platform Training の単一の job として学習処理の含まれるイメージを cron 実行することで行っていました。 デプロイ・実行をまとめると以下のような構成になっています。 抱え

                                                    AI Platform Pipelines の機械学習基盤への導入 - MicroAd Developers Blog
                                                  • Get Started with TensorFlow Transform  |  TFX

                                                    This guide introduces the basic concepts of tf.Transform and how to use them. It will: Define a preprocessing function, a logical description of the pipeline that transforms the raw data into the data used to train a machine learning model. Show the Apache Beam implementation used to transform data by converting the preprocessing function into a Beam pipeline. Show additional usage examples. Setup

                                                      Get Started with TensorFlow Transform  |  TFX
                                                    • 第18回 MLOps 勉強会 - MLOps Practicesの紹介

                                                      第18回 MLOps 勉強会で登壇したスライドです. https://mlops.connpass.com/event/242652/ 各社が実務で取り組んでいるMLOpsに関する事例やMLOpsの各領域で使用されている技術トピックを整理したMLOps Practicesというサイトを公開したので,その紹介スライドです.

                                                        第18回 MLOps 勉強会 - MLOps Practicesの紹介
                                                      • バクラクのAI-OCRを支える精度モニタリング -モニタリングドリブンの改善-

                                                        MLOps LT大会 2023/7月 登壇資料 https://mlops.connpass.com/event/286716/ バクラクのAI-OCRを支える精度モニタリングについて紹介します。OCR技術は、ビジネスプロセスを効率化する上で必要不可欠な技術の一つですが、その精度を維持するためには、常にモニタリングが必要です。バクラクのMLチームでは、AI-OCRの精度モニタリングに重点的に取り組んでおりその内容を紹介します。

                                                          バクラクのAI-OCRを支える精度モニタリング -モニタリングドリブンの改善-
                                                        • noteの機械学習フローを共通化してレコメンデーションで成果をあげた話|やすけん / yskn67

                                                          こんにちは.noteの基盤開発グループ機械学習チームに所属している安井です.普段は機械学習を活用したシステムの開発から運用までトータルでおこなっています. noteでは記事の分類やレコメンデーションに機械学習を用いて作成されたモデルが使われています.いくつか例を挙げますと,noteに投稿された記事をカテゴリごとにまとめて見るために,記事をカテゴリごとに機械学習で分類しています.また,”あなたへのおすすめ”としてユーザごとにパーソナライズされたおすすめ記事をとどけるためにも機械学習が活用されています. (図1)noteにおける機械学習の活用箇所それらサービスで活用されている複数の機械学習モデルには記事の内容から分散表現を獲得する似たような仕組みが存在しました.今回はそれらを共通コンポーネントとして切り出し,分散表現を推論・保存まで行う仕組みを構築しました.また,その分散表現を活用したレコメン

                                                            noteの機械学習フローを共通化してレコメンデーションで成果をあげた話|やすけん / yskn67
                                                          • MLOpsの各社の定義まとめ - Qiita

                                                            CI: 継続的インテグレーション CD: 継続的デリバリー CT: 継続的トレーニング CM: 継続的監視 2.2 Facebook Facebookのエンジニアブログを検索しましたが、ヒットしませんでした。 FBLearnerでMLOpsを実践しているものの、定義を書いているわけではなさそうです。 2.3 Intel Intelのwebサイト内にてMLOpsで検索しましたが、SeldonのCTOの紹介と求人票以外はヒットしませんでした。 https://www.intel.com/content/www/us/en/search.html?ws=text#q=MLOps&t=All プロセッサを作るのがメインの会社だから、無くても仕方ないですね。 2.4 Microsoft 2.4.1 Microsoftの定義 MLOps:Azure Machine Learning を使用したモデル管

                                                              MLOpsの各社の定義まとめ - Qiita
                                                            • Google、「Cloud AI Platform Pipelines」ベータ版を発表! MLワークフロー作成を支援 | Techable(テッカブル)

                                                              Tech Google、「Cloud AI Platform Pipelines」ベータ版を発表! MLワークフロー作成を支援 Googleは、複雑な機械学習(ML)ワークフローの作成、管理を簡略化する「Cloud AI Platform Pipelines」のベータ版リリースした。 同サービスでは、MLワークフロー作成での全ステップ、データの準備と分析、トレーニング、評価、展開などを支援してくれ、再現性が高く堅牢なパイプライン展開が可能になる。 Cloud AI Platform Pipelinesの導入で、MLワークフローの作成や再利用にかかっていた労力が半減するかもしれない。 ・実行、評価、バージョン管理などの機能を提供Cloud AI Platform Pipelinesは、Google Cloudコンソールから利用でき、セキュアなMLワークフロー実行環境が簡単に用意できる。さらに

                                                                Google、「Cloud AI Platform Pipelines」ベータ版を発表! MLワークフロー作成を支援 | Techable(テッカブル)
                                                              • タスクとパラメータの一元管理で実現するMLOps - enechain Tech Blog

                                                                はじめに 背景 タスクランナーを導入するモチベーション パラメータ管理ツールを導入するモチベーション 実現したいこと モデルや環境に依存しないタスクによるパイプラインの操作 共通部分と環境特有部分を分離したパラメータ定義 パラメータ定義の構造化 実装方法 利用するツール パラメータファイル 構造化パラメータのマージ処理の実装 おわりに はじめに enechain データサイエンスデスク エンジニアの藤村です。 enechainでは市場活性化を目的として、機械学習や最適化アルゴリズムを用いて電力や燃料などの商品に関する指標を算出し、社内外に提供しています。本稿では、これらを算出するモデルの構築・運用を効率化するために作成した、タスクランナーinvokeとパラメータ管理ツールhydraを一体化したシステムを紹介します。 背景 タスクランナーを導入するモチベーション 機械学習モデルの構築・運用に

                                                                  タスクとパラメータの一元管理で実現するMLOps - enechain Tech Blog
                                                                • ペパボのログ活用基盤「Bigfoot」を Google Cloud Platform に移設しました - ペパボ研究所ブログ

                                                                  研究員の @zaimy です。ペパボ研究所では、自社が運営するウェブサービスのユーザーの行動ログや属性情報を収集・分析・活用するための全社基盤「Bigfoot」を技術基盤チームと協力して開発・運用しています。 Treasure Data をバックエンドとして2016年に運用を開始したこのシステムを、今年 Google Cloud Platform(以下 GCP)を中心とした構成に移設しました。この記事では移設に至った理由、移設時の工夫、移設後の構成などについてお話します。 目次 Bigfoot とは 移設前の構成と移設に至った経緯 GCP の選定理由 BigQuery の存在 AI Platform の存在 コスト 移設時の工夫 データウェアハウスの並行運用 ワークフローの二段階移行 行動ログのスキーマ設計 移設後の構成 bigfoot/platform bigfoot/cloud-com

                                                                    ペパボのログ活用基盤「Bigfoot」を Google Cloud Platform に移設しました - ペパボ研究所ブログ
                                                                  • How to evaluate MLOps Platforms

                                                                    Companies that pioneered application of AI at scale did so using in-house ML platforms (facebook, uber, LinkedIn etc.). These capabilities are now available in off-the-shelf products. The rush to MLOps has led to too much choice. There are hundreds of tools and at least 40 platforms available: Image by Thoughtworks, from Guide to Evaluating MLOps PlatformsThis is a very difficult landscape to navi

                                                                      How to evaluate MLOps Platforms
                                                                    • SageMaker初心者必見!AWS認定試験(機械学習)に合格するために絶対に覚えるべきこと - Qiita

                                                                      はじめに 先日、AWS認定 機械学習 - 専門知識 (AWS Certified Machine Learning - Specialty) に合格し、AWS認定試験をすべて制覇することができました。11冠達成! この試験で特に重要なのがAWSの機械学習サービスである 「Amazon SageMaker」 です。 しかし、一口に「SageMaker」といっても「SageMaker ****」といった関連サービスがとても多い。 もちろん、機能が多いのはありがたいことなのですが、初心者にとっては覚えるのが大変なので、試験の復習も兼ねて、まとめてみました。 SageMaker サービス体系 注意事項 AWS re:Invent 2021 (2021/11/29 - 2021/12/03) 以降に発表されたサービスは別枠としているのは、リリースされて6か月以内のサービスや機能に関する問題が認定試験

                                                                        SageMaker初心者必見!AWS認定試験(機械学習)に合格するために絶対に覚えるべきこと - Qiita
                                                                      • Using GitHub Actions for MLOps & Data Science

                                                                        EngineeringUsing GitHub Actions for MLOps & Data ScienceBackground Machine Learning Operations (or MLOps) enables Data Scientists to work in a more collaborative fashion, by providing testing, lineage, versioning, and historical information in an automated way.  Because the… Background Machine Learning Operations (or MLOps) enables Data Scientists to work in a more collaborative fashion, by provid

                                                                          Using GitHub Actions for MLOps & Data Science
                                                                        • The Winding Road to Better Machine Learning Infrastructure Through Tensorflow Extended and Kubeflow - Spotify Engineering

                                                                          The Winding Road to Better Machine Learning Infrastructure Through Tensorflow Extended and Kubeflow When Spotify launched in 2008 in Sweden, and in 2011 in the United States, people were amazed that they could access almost the world’s entire music catalog instantaneously. The experience felt like magic and as a result, music aficionados dug in and organized that content into millions of unique pl

                                                                            The Winding Road to Better Machine Learning Infrastructure Through Tensorflow Extended and Kubeflow - Spotify Engineering
                                                                          • Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリース

                                                                            Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリースW&B Fully Connected 2023カンファレンスとAI Expo2023秋にて配布予定 Weights & Biases Japan株式会社(以下、W&B Japan)は本日、大規模言語モデル(LLM)の開発手法にフォーカスするホワイトペーパーの第2弾となる「LLMファインチューニングとプロンプトエンジニアリングのベストプラクティス」を公開しました。LLM導入を検討している企業向けに、自社の保持するリソースやビジネスモデルに合わせたLLM開発手法を選択するための実践的ガイドとなっており、第1弾の「LLMをゼロからトレーニングするためのベストプラクティス」を補完する形で、既存のLLMモデルを拡張する形で自社用途に適応する手法について解説しています。本ホワイトペーパーの印刷済み冊子

                                                                              Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリース
                                                                            • 1ペタバイトのデータセットで機械学習する / WebDataset入門

                                                                              深層学習をする上で、最も大切なマシンスペックを聞かれたら何と答えますか? GPUのTensor性能、VRAM、GPUの数、CPU性能、メモリ、… 問題によって正解は異なりますね。 しかし、特に大規模なデータセットで機械学習する場合では、しばしばネットワーク帯域とストレージシステムのディスクI/Oによって制限されます。この記事ではそのような課題に対して、学習側でどのようにデータを扱うかを見ていきたいと思います。 1. この記事は? こんにちは、TURING MLチームです。TURINGはEnd-to-Endな深層学習モデルでLv5完全自動運転車の開発を目指す会社です。 私たちは自動運転モデルを動かすため、可視域のカメラセンサによる画像で学習し、カメラ映像のみから車体の操作や経路選択、安全性の判断を行わせています。(実際の車を動かす事例はこちらの記事をご覧ください。) そのため、機械学習のため

                                                                                1ペタバイトのデータセットで機械学習する / WebDataset入門
                                                                              • 機械学習プロジェクトにおけるSageMaker Processingの使い所 - コネヒト開発者ブログ

                                                                                みなさんこんにちは。機械学習チームのたかぱい(@takapy0210)です。 2021年もあと1ヶ月となりましたね。皆様いかがお過ごしでしょうか。 ...さて12月といえば、毎年恒例のアドベントカレンダーの季節ですね! というわけで、2021年もコネヒト Advent Calendarが始まります!🎉 初日となる本エントリでは、機械学習チームで使用しているSageMaker*1の機能である、Processing*2について、活用事例とともにご紹介しようと思います。 目次 SageMaker Processingとは? SKLearnProcessor / PySparkProcessor Processor / ScriptProcessor これまでの課題感 SageMaker Processorの活用方法 SageMakerからECRにあるコンテナを指定してProcessor Job

                                                                                  機械学習プロジェクトにおけるSageMaker Processingの使い所 - コネヒト開発者ブログ
                                                                                • Vertex AIを活用したMLOpsの実現【前編】 | 株式会社CAM

                                                                                  |目次 1. はじめに 2. MLOpsとは 3. VertexAIの概要 4. Vertex Pipelineについて -概要 -コンポーネントの実装例 -パイプラインの実装例 -Vertex PipelineでのKubeflow Pipelineの実行 5. まとめ 6. 参考資料 |1. はじめに 株式会社CAMで機械学習エンジニアをしています原 和希です。 データ分析から機械学習モデルの作成、そしてMLOps基盤の構築を担当しています。 今回はMLOps基盤の構築をトピックとして、弊社で導入している「VertexAI」という、GCP 上で MLOps 基盤を実現するためのサービスを紹介します。 本記事は前編と後編に分かれています。 この前編ではMLOpsについてと機械学習パイプラインを実現するためのサービスであるVertex Pipelineについて詳しく解説をします。 後編では、

                                                                                    Vertex AIを活用したMLOpsの実現【前編】 | 株式会社CAM

                                                                                  新着記事