並び順

ブックマーク数

期間指定

  • から
  • まで

121 - 143 件 / 143件

新着順 人気順

YOLOの検索結果121 - 143 件 / 143件

  • 【物体検出2022】YOLOv7まとめ第1回 マスク着用をリアルタイムに判定 〜オープンソースデータセットの学習と評価〜 - つくもちブログ 〜Python&AIまとめ〜

    YOLOシリーズの2022年最新版「YOLOv7」について、環境構築から学習の方法までまとめます。 YOLOv7は2022年7月に公開された最新バージョンであり、速度と精度の面で限界を押し広げています。 第1回目は、オープンソースのデータセットを活用したマスク着用判定モデルの作成を通じて学習と評価の方法を紹介します。 Google colabを使用して簡単に最新の物体検出モデルを実装することができますので、ぜひ最後までご覧ください。 YOLOv7まとめシリーズはこちらからご覧いただけます。

      【物体検出2022】YOLOv7まとめ第1回 マスク着用をリアルタイムに判定 〜オープンソースデータセットの学習と評価〜 - つくもちブログ 〜Python&AIまとめ〜
    • 【YOLOv5】トマトの物体検出器をつくってみた

      畑で栽培しているトマトが良い感じで収穫できているので、収穫タイミングを判断する物体検出器をつくってみることにしました。トマトと一言にいっても色々な種類があるのですが、今回は「ミディトマト」という種類を見ていきます。ミディトマトとは、大玉トマトとミニトマトをかけ合わせ品種改良したトマトで、酸味が少なく甘いのが特徴的です。 トマトを物体検出する技術はすでに開発されています。またトマトのデータセットなんかもそろっており開発しやすい環境が整ってきていると思います。ですが農林水産省のスマート農業をターゲット?なのか、大がかりなロボットを導入するものが多く敷居が高い感じがします😅 今回は家庭菜園レベルで美味しいトマトを収穫したいじゃん😋というモチベーションでつくっていきます。物体検出アルゴリズムとしてはYOLOv5を使っていきます。また、トマトの物体検出は比較的容易と思います(赤くて目立つ)ので目

        【YOLOv5】トマトの物体検出器をつくってみた
      • 深層学習によるリモートセンシングのためのグレースケールベースのアルゴリズム

        Grayscale Based Algorithm for Remote Sensing with Deep Learning リモートセンシングは、ターゲットに物理的に接触することなくターゲットを画像取得することです。今日では、画像取得期間が短縮されているため、リモートセンシングデータが広く好まれています。地上ターゲットのリモートセンシングは、衛星取得からのさまざまな媒体を介した光の伝播に影響を与えるさまざまな要因のため、より困難です。リモートセンシングの分野では、いくつかの畳み込みニューラルネットワークベースのアルゴリズムが実装されています。教師あり学習は、トレーニングの前にクラスに応じてデータにラベルを付ける機械学習手法です。ターゲットをより正確に検出して分類するために、バウンディングボックスとアンカーボックスに基づくアルゴリズムであるYOLOv3が採用されています。大気中を通過する

          深層学習によるリモートセンシングのためのグレースケールベースのアルゴリズム
        • HRPlanes:ディープラーニング用の高解像度飛行機データセット

          衛星画像からの飛行機の検出は、画像の複雑な背景と、センサーの形状や大気の影響によって引き起こされるデータ取得条件の違いのため、困難な作業です。深層学習手法は、飛行機の自動検出のための信頼できる正確なソリューションを提供します。ただし、有望な結果を得るには、膨大な量のトレーニングデータが必要です。この研究では、Google Earth(GE)の画像を使用し、画像上の各飛行機の境界ボックスにラベルを付けることで、高解像度飛行機(HRPlanes)と呼ばれる新しい飛行機検出データセットを作成します。 HRPlaneには、世界中のいくつかの異なる空港のGE画像が含まれており、さまざまな衛星から取得したさまざまな風景、季節、衛星の形状条件を表します。広く使用されている2つのオブジェクト検出方法、つまりYOLOv4とFasterR-CNNを使用してデータセットを評価しました。私たちの予備的な結果は、提

            HRPlanes:ディープラーニング用の高解像度飛行機データセット
          • CPU単体で無理やり tiny-YoloV3 OpenVINO [60 FPS / CPU only] 今度こそ絶対速いと感じるに違いない、というか、速すぎです 【その4】 - Qiita

            $ sudo python3 /opt/intel/computer_vision_sdk/deployment_tools/model_optimizer/mo_tf.py \ --input_model pbmodels/frozen_tiny_yolo_v3.pb \ --output_dir lrmodels/tiny-YoloV3/FP32 \ --data_type FP32 \ --batch 1 \ --tensorflow_use_custom_operations_config yolo_v3_tiny_changed.json // Copyright (C) 2018 Intel Corporation // SPDX-License-Identifier: Apache-2.0 // /** * \brief The entry point for the Inf

              CPU単体で無理やり tiny-YoloV3 OpenVINO [60 FPS / CPU only] 今度こそ絶対速いと感じるに違いない、というか、速すぎです 【その4】 - Qiita
            • 【物体検出】1行で学習済みのYOLO独自モデルをAPI化する方法

              こんばんはエンジニアの眠れない夜です。 前回はYOLOv3の独自モデルを作成しましたね。いい感じに目的のものは検出できましたか? 物体検出がうまくいったら次はそのモデルをAPI化してどこからでも画像を投げれば座標が帰ってくると嬉しいですよね。 API化されていればプロジェクトに組み込むのが簡単ですし、1度作ってしまえば別のプロジェクトでも使えますしね! ということで、今回は前回作成したYOLOv3の独自モデルをAPI化する方法をご紹介します。 まだ、独自モデルを作成していないという方はこちらの記事を参考にしてみてください。 機械学習がずっと身近なものになりますよ! 【物体検出】YOLO独自モデル簡単作成方法 DockerでYOLO独自モデルをAPI化 これまでにDockerを使ってAPIを作る方法を何度か紹介してきました。 【Docker】flask-uwsgi-nginx で簡単にアプリ

                【物体検出】1行で学習済みのYOLO独自モデルをAPI化する方法
              • さまざまな葉のサイズの画像におけるイネ病の自動検出

                Automatic Detection of Rice Disease in Images of Various Leaf Sizes 稲作農家が設備や専門知識不足の問題に取り組むのを支援するには、迅速で正確かつ手頃な価格の稲病検出方法が必要です。本論文では、水田の写真画像からイネの病気を検出するためのコンピュータビジョン技術を使用したソリューションに焦点を当てました。一般農家が実際に使用した画像を扱うことは、さまざまな環境要因のために非常に困難であり、米の葉のオブジェクトサイズの変動は、パフォーマンスの低下を引き起こす主な要因の1つです。この問題を解決するために、元の入力画像を分割するためのサイズ基準として、画像内の米の葉の自動的に推定された幅サイズに基づいて、CNNオブジェクト検出と画像タイリング技術を組み合わせた手法を提示しました。葉の幅を推定するモデルは、18層のResNetアーキ

                  さまざまな葉のサイズの画像におけるイネ病の自動検出
                • YOLO V3に、VoTTでアノテーションを付けた独自のデータセットを学習させる - Qiita

                  YOLO V3を試すだけであれば学習済みモデルを使えばよいのですが、「やっぱり独自の物体検出をやってみたい!」ということで、独自のデータセットを学習させてみました。その内容を紹介します。 今回はグーの手を検出するだけのモデルを作成することとし、自分のグーの手を撮影し、その動画にVoTTでアノテーションを付けて学習データにしました。 私が実行した環境 Windows 10 Home NVIDIA GTX1080Ti CUDA 9.1.85.3 CuDNN 7.1.3 Python 3.6.5 Tensorflow-gpu 1.12.0 Keras 2.2.4 opencv-python 4.0.0.21 matplotlib 3.0.2 Pillow 5.4.1 VoTT 1.7.2 まずはYOLO V3を動かす 以下のPythonライブラリをインストール tensorflow、keras、

                    YOLO V3に、VoTTでアノテーションを付けた独自のデータセットを学習させる - Qiita
                  • YOLOv3 論文訳 - Qiita

                    YOLOv3論文訳 SSDの3倍速いことで今流行りのYOLOv3の実装にあたって論文を読むことがあると思いますので,基本的な部分を簡単な日本語訳でまとめました.詳しくは無心で元論文を読むことをお勧めします. 元論文(yolov3):https://arxiv.org/abs/1804.02767 YOLOの公式サイト(by Joseph Redmon):https://pjreddie.com/darknet/yolo/ ※著者は洋画吹き替えにインスパイヤされているため,一部訳がフランクな箇所があります. 百聞は一見に如かず.YOLOの凄さを感じて,この記事を読むモチベーションを少しでも上げるために,YOLOの作者Joseph RedmonがプレゼンするTED動画を見ることを強くお勧めします!ちなみにJosephさんはYOLOで使われるベースネットに"Darknet"と名付けるなど,中二病

                      YOLOv3 論文訳 - Qiita
                    • YOLOv7でオレンジさん判別機を作る

                      やりたいこと オレンジさんが本物か偽物か判別したいと思ったこと一度はありますよね? 環境はGoogle Colabを使います 画像認識にはYOLOv7を使用します 準備 Google Colabは以下からgoogleにログインすれば使えます ファイルからノートブックを新規作成すればOKです 今回はGoogleドライブにデータを置くようにしたので先にマウントしておきます Google Colabにも置けますが時間がたつと削除されるようです マウントはGoogle Colabからドライブのマウントボタンを押すだけです 学習もするのでランタイムのタイプを変更しておきます メニューの ランタイム->ランタイムのタイプを変更 からハードウェアアクセラレータをGPUにしておきます YOLOv7を使ってみる YOLOv7のインストール githubからYOLOv7をcloneしてライブラリをインポートし

                        YOLOv7でオレンジさん判別機を作る
                      • 『【Intel OpenVINO】YOLO-v3、YOLO-v3-tinyを動かしてみる。』

                        ほちたまのブログ 奈良県北葛城郡の一部地域をのんびり走っています。 飼えないけどネコちゃん好き。 昭和アニメ・特撮好き。 ピアノ初心者。 ジョギング中のスマホ写真や、他、ジャンル問わず書いてみたいと思います。 OpenVINO API使用のYOLO-v3(MS-COCOの80分類の物体検出)をやってみる。(tiny版は、この記事の最後で触れる。) (1)YOLO-v3のIR構築 大前提: model optimizerはpythonのスクリプトなので、python 3.6以上がインストールされていること、 さらに、 Tensorflow 1.12.0以上がインストールされていることが必須となる。 今回は、Tensorflow 1.12.0、Tensorflow 1.14.0両方で有効なIR(***.xmlと***.bin)が得られることが確認できている。 もし、以前に別バージョンのtens

                          『【Intel OpenVINO】YOLO-v3、YOLO-v3-tinyを動かしてみる。』
                        • YOLOv4での転移学習を使用したインドの食品大皿での物体検出

                          Object Detection in Indian Food Platters using Transfer Learning with YOLOv4 物体検出は、コンピュータビジョンでよく知られている問題です。それにもかかわらず、伝統的なインド料理でのその使用法と普及は限られています。特に、1枚の写真にあるインド料理を認識することは次の3つの理由で困難です。1。注釈付きのインド料理データセットの欠如2.料理間の境界がはっきりしない3.クラス内のばらつきが大きい。これらの問題を解決するには、包括的にラベル付けされたインド料理データセットであるIndianFood10を提供します。これには、主食のインド料理に頻繁に登場する10の食品クラスが含まれ、YOLOv4オブジェクト検出器モデルで転移学習を使用します。私たちのモデルは、10クラスのデータセットで91.8%の全体的なmAPスコアと0.9

                            YOLOv4での転移学習を使用したインドの食品大皿での物体検出
                          • YOLOv3のソースコードを読み解く ~detector train編~ ② - Qiita

                            はじめに 「YOLOv3のソースコードを読み解く ~detector train編~① 」の続きです。 ネットワーク読み込みから続きます。 引用元 下記に配置してあるソースコード(2019年11月2日時点)をもとに読み解きます。 https://github.com/pjreddie/darknet train_detectorつづき cuda_set_deviceでGPUを登録するところまで読みました。 次にload_networkでネットワークの読み込みを行ってます。引数は、設定ファイルパスと重みファイルパスとclearの3つです。 for(i = 0; i < ngpus; ++i){ srand(seed); #ifdef GPU cuda_set_device(gpus[i]); #endif nets[i] = load_network(cfgfile, weightfile,

                              YOLOv3のソースコードを読み解く ~detector train編~ ② - Qiita
                            • CPU単体で無理やり YoloV3 OpenVINO [4-5 FPS / CPU only] 【その3】 - Qiita

                              OpenVINO-YoloV3 I wrote an English article, here ◆ 前回記事 CPU単体で無理やり RealTime Semantic Segmentaion 【その2】 [4-5 FPS / CPU only] DeeplabV3+MobilenetV2 (Core i7なら11-12 FPS) ◆ はじめに 先に懺悔します。 今回はサンプルプログラムの丸パクリ記事です。 ( ´_ゝ`) GPU も Neural Compute Stick も使わない、 CPU単体で男気実装シリーズ の第3弾。 今回は推論の難易度をセグメンテーションから1段階下げて、 OpenVINO + YoloV3 (Full Size) のオブジェクトディテクションをCPUで動作させました。 248MB のモデルをCPU単体で実行したときのスピードは下図。 ん〜〜〜・・・、遅いね

                                CPU単体で無理やり YoloV3 OpenVINO [4-5 FPS / CPU only] 【その3】 - Qiita
                              • [B! YOLO] makayaのブックマーク

                                5 AI-OCR AI-OCRとしては、MicrosoftのComputer Visionで提供されている、Read APIを使用させて頂きました。 参考: Computer Vision 3.2 GA Read API を呼び出す 最初は、ナンバープレート画像を、そのままOCRにかけてみたのですが、下段左の平仮名1文字のところの認識が難しいようでした。これは、このように「ひらがな」1文字だけが配置されることに、モデルが対応しきれていないような気がしました。 対策として、画像を3つの部分に分割し、それぞれでOCRにかけるようにしてみました。また、認識精度が上がるように、業務用(緑バックの白文字、及び、黒バックの黄色文字)は、ネガポジ反転し、最終的にグレースケール変換することにしました。 AI-OCRで処理しているコードと、それを使っている、全体のコードです。 ocr.py import t

                                • 【YOLOv8で学習→物体検出】楽に学習データを用意して好きなものを検出してみよう - Qiita

                                  はじめに 学習済みのモデルを使ってサクッと物体検出をするということと、自分で任意の内容を学習させて物体検出をするということには心理的にまあまあなハードルがあると思っています。 学習データの準備が面倒そう、学習させること自体もめんどそうだなと思います。 自分が触っていた物体検出の仕組みが用意している学習済みモデルで検出できないものを検出しないといけないことになり、重い腰を上げて一番楽そうな方法を模索したのでその結果を記事にまとめました。 学習させないといけなくなったけど、楽したいぜ、という人には意味のある内容かと思います。詳しい人は読まなくていい内容です。 使用する物体検出のアルゴリズム、モデル 日本語のドキュメントがあったりPyTorchでサクッと動かせたりと準備が楽そうだったのでYOLOv8を使うことにしました。(実際楽でした) 手順 クイックスタートに従い準備を進めていきます。と言って

                                    【YOLOv8で学習→物体検出】楽に学習データを用意して好きなものを検出してみよう - Qiita
                                  • Search result of “yolo” - Qiita

                                    YOLOの家系図(2024)概要 YOLO Unraveled: A Clear Guideを読み解いていき、それぞれの違いや特徴を把握し、業務に活かせるレベルで知見を得る YOLOの ... YOLOYOLOXyolov8

                                      Search result of “yolo” - Qiita
                                    • 物体検出についての歴史まとめ(2) - Qiita

                                      物体検出についての歴史まとめ https://qiita.com/mshinoda88/items/9770ee671ea27f2c81a9 の続きです。ここでは、FPN、RetinaNet、M2Det、CSPNet、YOLOv4,YOLOv5 のアプローチとそれぞれの特徴を見ていきます。 Feature Pyramid Networks RetinaNet M2Det Cross Stage Partial Network 活性関数 Mish Soft-NMS IoUベースのレグレッションロス データオーグメンテーション DropBlock regularization Cross-Iteration Batch Normalization YOLOv4 YOLOv5 参考文献 (2020/08/29現在、YOLOv5について加筆中) 1. Feature Pyramid Network

                                        物体検出についての歴史まとめ(2) - Qiita
                                      • 関節腔の狭小化と組み合わせたX線撮影による変形性膝関節症の重症度の自動評価

                                        Automated Grading of Radiographic Knee Osteoarthritis Severity Combined with Joint Space Narrowing 膝X線での変形性膝関節症(KOA)の重症度の評価は、人工膝関節全置換術を使用するための中心的な基準です。ただし、この評価は、不正確な基準と非常に高いリーダー間のばらつきに悩まされています。 KOAの重症度のアルゴリズムによる自動評価は、その使用の適切性を高めることにより、膝関節置換術の全体的な結果を改善する可能性があります。放射線写真の前後(PA)ビューからKOAを自動的に評価するための新しい深層学習ベースの5ステップアルゴリズムを提案します。(1)画像の前処理(2)YOLO v3-Tinyモデルを使用した画像内の膝関節の位置特定、 (3)畳み込みニューラルネットワークベースの分類器を使用した変

                                          関節腔の狭小化と組み合わせたX線撮影による変形性膝関節症の重症度の自動評価
                                        • ベンガルのナンバープレートを認識するための自動化されたアプローチ

                                          An Automated Approach for the Recognition of Bengali License Plates 自動ナンバープレート認識(ALPR)は、任意の車両のナンバープレートを自動的に識別するためのシステムです。このプロセスは、とりわけ、追跡、発券、およびあらゆる請求システムにとって重要です。情報通信技術(ICT)の使用により、車両追跡システムを含むすべてのシステムが自動化されています。本研究では、ナンバープレートの文字を使用してナンバープレートを検出するハイブリッド手法を提案します。撮影した画像情報は、本研究のテーマであるバングラデシュ車の認識手順に使用されました。ここでは、ナンバープレートの検出に、81%が正しく予測されたYOLOモデルが使用されました。そして、ナンバープレートのセグメンテーションには大津のしきい値処理が使用され、最終的には文字認識にCNN

                                            ベンガルのナンバープレートを認識するための自動化されたアプローチ
                                          • gluoncvについて - Qiita

                                            Computer VisionのフレームワークやAPIについて調べる機会があり、ここではgluoncvについて調べたことをまとめます。 Computer Visionのフレームワーク、API一覧 gluoncv ChainerCV Object detection API 下二つは物体検出を簡単に行えるものとして紹介されている記事をいくつか目にしていたのですが、gluoncvはQiitaの記事にはなさそうということで簡単に調査。(2019/01/20時点) Gluonが公開してるconputer visionのツールキット 提供されている機能は以下 画像認識 物体検出 セマンティックセグメンテーション インスタンスセグメンテーション Re-ID GAN 開発中の機能 - Keypointdetection - Depthprediction セマンティックセグメンテーションとインスタンスセ

                                              gluoncvについて - Qiita
                                            • YOLO、YOLOv2、そして現在はYOLOv3によるリアルタイムの物体検出

                                              一度だけ見る(YOLO)は、リアルタイム処理を対象とした物体検出システムです。この記事では、YOLO、YOLOv2、YOLO9000を紹介します。YOLOv3のみに興味のある方は、記事の最後まで進んでください。YOLOのウェブサイトで提供されている精度と速度の比較は次のとおりです。

                                                YOLO、YOLOv2、そして現在はYOLOv3によるリアルタイムの物体検出
                                              • 鳥の目線:鶏の幸福の指標としての行動と姿勢の測定

                                                Birds' Eye View: Measuring Behavior and Posture of Chickens as a Metric for Their Well-Being 鶏肉の幸福は、増大する世界の人口の食料安全保障とより良い栄養を確保するために重要です。この研究では、鶏の健康状態を測定するための指標として行動と姿勢を表します。ペン内の鶏の姿勢と行動を検出する目的で、2つのアルゴリズムを採用しています。たとえば、セグメンテーション用のマスクR-CNNと、分類用のResNet50と組み合わせたYOLOv4です。私たちの結果は、マスクR-CNNを使用した姿勢と行動の検出で88.46%の加重F1スコア、YOLOv4を使用した行動検出で平均91%の精度、姿勢検出で86.5%の平均精度を示しています。これらの実験は、姿勢と行動の両方の測定について、制御されていないシナリオで実施されま

                                                  鳥の目線:鶏の幸福の指標としての行動と姿勢の測定