MLメタデータによる優れたMLエンジニアリング コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。 ペンギンを分類するために本番MLパイプラインを設定するシナリオを想定します。パイプラインはトレーニングデータを取り込み、モデルをトレーニングして評価し、それを本番環境にプッシュします。 ただし、後でさまざまな種類のペンギンを含むより大きなデータセットでこのモデルを使用しようとすると、モデルが期待どおりに動作せず、種の分類が正しく開始されないことがわかります。 この時点で、あなたは知ることに興味があります: 利用可能なアーティファクトが本番環境のモデルのみである場合、モデルをデバッグするための最も効率的な方法は何ですか?モデルのトレーニングに使用されたトレーニングデータセットはどれですか?この誤ったモデルにつながったトレーニングの実行はどれですか?モデルの評価結果
![MLメタデータによる優れたMLエンジニアリング | TFX | TensorFlow](https://cdn-ak-scissors.b.st-hatena.com/image/square/23f1605e446978a38eff23b46ac103cd08784dab/height=288;version=1;width=512/https%3A%2F%2Fwww.tensorflow.org%2Fstatic%2Fsite-assets%2Fimages%2Fproject-logos%2Ftensorflow-extended-tfx-logo-social.png%3Fhl%3Dja)