タグ

2022年12月20日のブックマーク (5件)

  • Motion Diffusion Model:Diffusion Modelを用いたテキストからのモーション生成 - Qiita

    はじめに こんにちは、東京大学松尾研究室B4の大庭弘己です。 今日の記事では、画像生成などで巷を騒がせたdiffusion modelを用いてモーションを生成する手法を提案した論文であるMDM:Human Motion Diffusion Modelを紹介します。 概要 Human Motion Diffusion Model(以下MDM)は、任意のテキストからモーションを生成する手法です。論文内では自由に叙述したテキストからのモーション生成、アクションのラベル(走る、蹴るなど)からのモーションの生成、モーションの編集の主に三つの機能が紹介されていますが、この記事ではテキストからのモーション生成について詳しくまとめようと思います。 "A person punches in a manner consistent with martial arts"の生成結果(公式プロジェクトページより引用

    Motion Diffusion Model:Diffusion Modelを用いたテキストからのモーション生成 - Qiita
  • MLOps における機械学習モデルモニタリングについて - Qiita

    MLOps(Machine Learning Operations)とは、機械学習モデルのライフサイクル全体を管理するためのフレームワークです。これには、モデルのトレーニング、テスト、デプロイ、モニタリング、および改善が含まれます。 モデルモニタリングとは、機械学習モデルが適切に動作しているかどうかを監視することを指します。これは、モデルが予測の精度を維持しているか、データの特性が変化していないか、そしてその他の問題が発生していないかを確認するために行われます。 モデルモニタリングには、様々な手法があります。例えば、モデルの予測と実際の値を比較することで、モデルの精度を測定することができます。また、モデルの出力として得られる統計量を定期的に収集し、モデルの精度が変化していないかを確認することもできます。 また、モデルのモニタリングは、データの特性が変化していないかを確認するためにも役立ちま

    MLOps における機械学習モデルモニタリングについて - Qiita
    deejayroka
    deejayroka 2022/12/20
    “モデルモニタリングとは、機械学習モデルが適切に動作しているかどうかを監視することを指します。これは、モデルが予測の精度を維持しているか、データの特性が変化していないか、そしてその他の問題が発生してい
  • Grad-CAMだけじゃない画像認識におけるCAM手法を徹底解説 - ABEJA Tech Blog

    長期インターン生の木村です。 今回、以前から興味を持っていた画像認識モデルにおける説明可能なAIのクラス活性化マッピング手法を調査してみました。 説明可能なAIとは 近年、深層学習ベースの画像認識モデルは製造業、医療、自動運転など至る場面で社会実装が進められていますが、ディープなラーニングを行っているだけに推論の判断根拠を人間が解釈できない問題があります。医療、自動運転のような命に関わる領域では安全性や公平性を担保できないために安心して導入できません。 このような問題を解決するのが「説明可能なAI(XAI)」です。 「説明可能なAI(XAI)」は、AIの推論結果を人間が解釈可能な形で出力する技術を指します。例えば、犬とが映っている画像を画像分類するAIが犬と推論した場合、モデルがどこを判断根拠としているかをヒートマップで可視化します。このヒートマップは、「顕著性マップ」と呼ばれます。 画

    Grad-CAMだけじゃない画像認識におけるCAM手法を徹底解説 - ABEJA Tech Blog
  • CLIP-Fields:基盤モデルによるセマンティックな表現とニューラル場の統合 | TRAIL

    はじめにこんにちは! 松尾研究室学部4年の池田悠也です。 今日の記事では、CLIPなどの大規模モデルとNeRFのようなニューラル場表現を組み合わせることでセマンティックな表現を空間に保持し、ロボットのタスクへと活用する論文であるCLIP-Fieldsを紹介します。 目次CLIP-Fieldsは何ができる?CLIP-Fieldsの何がすごい?使用する基盤モデルCLIP-Fieldsの概要データセットモデルアーキテクチャ学習検証結果動かしてみたまとめ CLIP-Fieldsは何ができる?CLIP-Fieldsを用いた学習を行うと、マップ上の空間的位置に対応するセマンティックな表現ベクトルを得ることができます。それにより、セグメンテーション、ナビゲーション、ビジュアルローカライゼーションなどのタスクを実行することができます。 セグメンテーションの例(出典:CLIP-Fields 説明動画) 言語

    CLIP-Fields:基盤モデルによるセマンティックな表現とニューラル場の統合 | TRAIL
  • MediaPipeの紹介