並び順

ブックマーク数

期間指定

  • から
  • まで

121 - 132 件 / 132件

新着順 人気順

YOLOの検索結果121 - 132 件 / 132件

  • YOLO V3に、VoTTでアノテーションを付けた独自のデータセットを学習させる - Qiita

    YOLO V3を試すだけであれば学習済みモデルを使えばよいのですが、「やっぱり独自の物体検出をやってみたい!」ということで、独自のデータセットを学習させてみました。その内容を紹介します。 今回はグーの手を検出するだけのモデルを作成することとし、自分のグーの手を撮影し、その動画にVoTTでアノテーションを付けて学習データにしました。 私が実行した環境 Windows 10 Home NVIDIA GTX1080Ti CUDA 9.1.85.3 CuDNN 7.1.3 Python 3.6.5 Tensorflow-gpu 1.12.0 Keras 2.2.4 opencv-python 4.0.0.21 matplotlib 3.0.2 Pillow 5.4.1 VoTT 1.7.2 まずはYOLO V3を動かす 以下のPythonライブラリをインストール tensorflow、keras、

      YOLO V3に、VoTTでアノテーションを付けた独自のデータセットを学習させる - Qiita
    • YOLOv3 論文訳 - Qiita

      YOLOv3論文訳 SSDの3倍速いことで今流行りのYOLOv3の実装にあたって論文を読むことがあると思いますので,基本的な部分を簡単な日本語訳でまとめました.詳しくは無心で元論文を読むことをお勧めします. 元論文(yolov3):https://arxiv.org/abs/1804.02767 YOLOの公式サイト(by Joseph Redmon):https://pjreddie.com/darknet/yolo/ ※著者は洋画吹き替えにインスパイヤされているため,一部訳がフランクな箇所があります. 百聞は一見に如かず.YOLOの凄さを感じて,この記事を読むモチベーションを少しでも上げるために,YOLOの作者Joseph RedmonがプレゼンするTED動画を見ることを強くお勧めします!ちなみにJosephさんはYOLOで使われるベースネットに"Darknet"と名付けるなど,中二病

        YOLOv3 論文訳 - Qiita
      • YOLOv7でオレンジさん判別機を作る

        やりたいこと オレンジさんが本物か偽物か判別したいと思ったこと一度はありますよね? 環境はGoogle Colabを使います 画像認識にはYOLOv7を使用します 準備 Google Colabは以下からgoogleにログインすれば使えます ファイルからノートブックを新規作成すればOKです 今回はGoogleドライブにデータを置くようにしたので先にマウントしておきます Google Colabにも置けますが時間がたつと削除されるようです マウントはGoogle Colabからドライブのマウントボタンを押すだけです 学習もするのでランタイムのタイプを変更しておきます メニューの ランタイム->ランタイムのタイプを変更 からハードウェアアクセラレータをGPUにしておきます YOLOv7を使ってみる YOLOv7のインストール githubからYOLOv7をcloneしてライブラリをインポートし

          YOLOv7でオレンジさん判別機を作る
        • 『【Intel OpenVINO】YOLO-v3、YOLO-v3-tinyを動かしてみる。』

          ほちたまのブログ 奈良県北葛城郡の一部地域をのんびり走っています。 飼えないけどネコちゃん好き。 昭和アニメ・特撮好き。 ピアノ初心者。 ジョギング中のスマホ写真や、他、ジャンル問わず書いてみたいと思います。 OpenVINO API使用のYOLO-v3(MS-COCOの80分類の物体検出)をやってみる。(tiny版は、この記事の最後で触れる。) (1)YOLO-v3のIR構築 大前提: model optimizerはpythonのスクリプトなので、python 3.6以上がインストールされていること、 さらに、 Tensorflow 1.12.0以上がインストールされていることが必須となる。 今回は、Tensorflow 1.12.0、Tensorflow 1.14.0両方で有効なIR(***.xmlと***.bin)が得られることが確認できている。 もし、以前に別バージョンのtens

            『【Intel OpenVINO】YOLO-v3、YOLO-v3-tinyを動かしてみる。』
          • YOLOv4での転移学習を使用したインドの食品大皿での物体検出

            Object Detection in Indian Food Platters using Transfer Learning with YOLOv4 物体検出は、コンピュータビジョンでよく知られている問題です。それにもかかわらず、伝統的なインド料理でのその使用法と普及は限られています。特に、1枚の写真にあるインド料理を認識することは次の3つの理由で困難です。1。注釈付きのインド料理データセットの欠如2.料理間の境界がはっきりしない3.クラス内のばらつきが大きい。これらの問題を解決するには、包括的にラベル付けされたインド料理データセットであるIndianFood10を提供します。これには、主食のインド料理に頻繁に登場する10の食品クラスが含まれ、YOLOv4オブジェクト検出器モデルで転移学習を使用します。私たちのモデルは、10クラスのデータセットで91.8%の全体的なmAPスコアと0.9

              YOLOv4での転移学習を使用したインドの食品大皿での物体検出
            • YOLOv3のソースコードを読み解く ~detector train編~ ② - Qiita

              はじめに 「YOLOv3のソースコードを読み解く ~detector train編~① 」の続きです。 ネットワーク読み込みから続きます。 引用元 下記に配置してあるソースコード(2019年11月2日時点)をもとに読み解きます。 https://github.com/pjreddie/darknet train_detectorつづき cuda_set_deviceでGPUを登録するところまで読みました。 次にload_networkでネットワークの読み込みを行ってます。引数は、設定ファイルパスと重みファイルパスとclearの3つです。 for(i = 0; i < ngpus; ++i){ srand(seed); #ifdef GPU cuda_set_device(gpus[i]); #endif nets[i] = load_network(cfgfile, weightfile,

                YOLOv3のソースコードを読み解く ~detector train編~ ② - Qiita
              • CPU単体で無理やり YoloV3 OpenVINO [4-5 FPS / CPU only] 【その3】 - Qiita

                OpenVINO-YoloV3 I wrote an English article, here ◆ 前回記事 CPU単体で無理やり RealTime Semantic Segmentaion 【その2】 [4-5 FPS / CPU only] DeeplabV3+MobilenetV2 (Core i7なら11-12 FPS) ◆ はじめに 先に懺悔します。 今回はサンプルプログラムの丸パクリ記事です。 ( ´_ゝ`) GPU も Neural Compute Stick も使わない、 CPU単体で男気実装シリーズ の第3弾。 今回は推論の難易度をセグメンテーションから1段階下げて、 OpenVINO + YoloV3 (Full Size) のオブジェクトディテクションをCPUで動作させました。 248MB のモデルをCPU単体で実行したときのスピードは下図。 ん〜〜〜・・・、遅いね

                  CPU単体で無理やり YoloV3 OpenVINO [4-5 FPS / CPU only] 【その3】 - Qiita
                • [B! YOLO] makayaのブックマーク

                  5 AI-OCR AI-OCRとしては、MicrosoftのComputer Visionで提供されている、Read APIを使用させて頂きました。 参考: Computer Vision 3.2 GA Read API を呼び出す 最初は、ナンバープレート画像を、そのままOCRにかけてみたのですが、下段左の平仮名1文字のところの認識が難しいようでした。これは、このように「ひらがな」1文字だけが配置されることに、モデルが対応しきれていないような気がしました。 対策として、画像を3つの部分に分割し、それぞれでOCRにかけるようにしてみました。また、認識精度が上がるように、業務用(緑バックの白文字、及び、黒バックの黄色文字)は、ネガポジ反転し、最終的にグレースケール変換することにしました。 AI-OCRで処理しているコードと、それを使っている、全体のコードです。 ocr.py import t

                  • 【YOLOv8で学習→物体検出】楽に学習データを用意して好きなものを検出してみよう - Qiita

                    はじめに 学習済みのモデルを使ってサクッと物体検出をするということと、自分で任意の内容を学習させて物体検出をするということには心理的にまあまあなハードルがあると思っています。 学習データの準備が面倒そう、学習させること自体もめんどそうだなと思います。 自分が触っていた物体検出の仕組みが用意している学習済みモデルで検出できないものを検出しないといけないことになり、重い腰を上げて一番楽そうな方法を模索したのでその結果を記事にまとめました。 学習させないといけなくなったけど、楽したいぜ、という人には意味のある内容かと思います。詳しい人は読まなくていい内容です。 使用する物体検出のアルゴリズム、モデル 日本語のドキュメントがあったりPyTorchでサクッと動かせたりと準備が楽そうだったのでYOLOv8を使うことにしました。(実際楽でした) 手順 クイックスタートに従い準備を進めていきます。と言って

                      【YOLOv8で学習→物体検出】楽に学習データを用意して好きなものを検出してみよう - Qiita
                    • Search result of “yolo” - Qiita

                      YOLO系のAIモデルに記載されているYOLO-s, YOLO-m, YOLO-lは何なのか?とで精度向上を行うこと?)を効率化するために画像のサイズや層の深さ、チャンネル数を変化させるために単一のパラメーターを用いる方法を採用しているようである。 この手法をYOLO ... 物体検出YOLO

                        Search result of “yolo” - Qiita
                      • 物体検出についての歴史まとめ(2) - Qiita

                        物体検出についての歴史まとめ https://qiita.com/mshinoda88/items/9770ee671ea27f2c81a9 の続きです。ここでは、FPN、RetinaNet、M2Det、CSPNet、YOLOv4,YOLOv5 のアプローチとそれぞれの特徴を見ていきます。 Feature Pyramid Networks RetinaNet M2Det Cross Stage Partial Network 活性関数 Mish Soft-NMS IoUベースのレグレッションロス データオーグメンテーション DropBlock regularization Cross-Iteration Batch Normalization YOLOv4 YOLOv5 参考文献 (2020/08/29現在、YOLOv5について加筆中) 1. Feature Pyramid Network

                          物体検出についての歴史まとめ(2) - Qiita
                        • 鳥の目線:鶏の幸福の指標としての行動と姿勢の測定

                          Birds' Eye View: Measuring Behavior and Posture of Chickens as a Metric for Their Well-Being 鶏肉の幸福は、増大する世界の人口の食料安全保障とより良い栄養を確保するために重要です。この研究では、鶏の健康状態を測定するための指標として行動と姿勢を表します。ペン内の鶏の姿勢と行動を検出する目的で、2つのアルゴリズムを採用しています。たとえば、セグメンテーション用のマスクR-CNNと、分類用のResNet50と組み合わせたYOLOv4です。私たちの結果は、マスクR-CNNを使用した姿勢と行動の検出で88.46%の加重F1スコア、YOLOv4を使用した行動検出で平均91%の精度、姿勢検出で86.5%の平均精度を示しています。これらの実験は、姿勢と行動の両方の測定について、制御されていないシナリオで実施されま

                            鳥の目線:鶏の幸福の指標としての行動と姿勢の測定