並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 240 件 / 329件

新着順 人気順

R-CNNの検索結果201 - 240 件 / 329件

  • 数クリックでAIを開発可能なツール「クリックAI」が発売開始

    人工知能(AI)の自動化ソリューションを提供する韓国企業・DSLAB GLOBALが、コーディングなしでクリックだけで、人工知能を作成できる開発ツールを「クリックAI」(CLICK AI)をリリースした。 既存のAIはマシンラーニング技術を使ってデータを学習する段階を経て開発されてきた。一方、クリックAIはデータサイエンティストやエンジニアの技術や統計的知識がなくても、クリックするだけでディープラーニングベースのAIを開発することができる自動化ソリューションとなっている。ユーザーがAIを学習するデータをアップロードした後、数回クリックするだけで最大100の学習モデルが精度順に出力される。 ユーザーは生成されたモデルの中で最も最適なモデルを選択し、AI予測および分析を開始することができる。しかも分析結果は難しい統計用語ではなく視覚化された資料として出力される。エクセル形式の一般分類(ANN)

      数クリックでAIを開発可能なツール「クリックAI」が発売開始
    • 物体検出について読むならこれ! - Qiita

      Deep Learning論文多すぎませんか? 「物体検出のためのDeep Learning論文」だけでも多すぎませんか? 多すぎて全容を把握できないせいで、逆に R-CNN, YOLO, SSD, CornerNet とその発展ばかり紹介されてませんか? いやー、物体検出のためのDeep Learningについての良いサーベイがあると良いんですけどねー。 という方におすすめなのがこちら! Deep Learning for Generic Object Detection: A Survey [Li Liu+, IJCV2019] https://arxiv.org/abs/1809.02165 https://doi.org/10.1007/s11263-019-01247-4 日本語訳しておきました! https://shinya7y.github.io/note/detection

        物体検出について読むならこれ! - Qiita
      • 海のゴミを回収するロボットの開発、YOLOv3改良で実現(AI×環境)【論文】 | AIDB

        課題:プラスチック廃棄物による海洋汚染が深刻 汚水は私たちの健康と生活に悪影響を及ぼす。特に海外では、汚水による健康被害が大きく、年間170万の人々が汚水が原因の病気で亡くなっている。 また、海の汚染に目を向ければ、私たち日本人にとっても他人事ではない。プラスチック廃棄物によって海が汚染され、魚などの動物性タンパク質が今も減少しているのである。 水質資源の保護は人類の義務の一つである。そうした中、水面のゴミを清掃するロボットが開発されてきた。ゴミを自動的に発見するためには、Faster R-CNNやYOLOなどの近年の物体認識AI技術が使用されている。しかし、ゴミの検出はまだ完璧ではなく、今も研究が進められている。 動的な水生環境におけるリアルタイムかつ高精度な物体検出の実現という課題において、実際にどんな研究が行われているのだろうか。中国にある中央民族大学大学のXiali Liら研究者の

          海のゴミを回収するロボットの開発、YOLOv3改良で実現(AI×環境)【論文】 | AIDB
        • 画像認識AIの世界。その仕組みと活用事例 – 株式会社Laboro.AI

          2021.3.12公開 2024.3.1更新 概 要 人間の知能を模した機能をもって高度なコンピュータ処理を行う技術、AI。AIはさまざまな領域で活用が進められており、特に進歩が著しい技術が機械学習と呼ばれる技術領域であり、その中でもビジネス活用が積極的に進んでいるのが画像認識の分野です。機械学習による画像認識の仕組みや活用事例などについて紹介します。 目 次 ・画像認識AIの仕組み ・画像認識とは ・画像認識の進化 ・画像認識ネットワークの進化 ・画像内の顔を認識する方法 ・画像認識の流れ ・ディープラーニングを用いた画像認識 ・ニューラルネットワークとディープラーニング ・ディープラーニング × 画像認識 ・画像系AIの進歩 ・画像生成 ・物体検出(物体検知) ・異常検知 ・画像認識AIのビジネス活用例 ・航空写真からの停止線・横断歩道の検出 ・動画解析からの感情推定 ・インフラ設備の

            画像認識AIの世界。その仕組みと活用事例 – 株式会社Laboro.AI
          • 論文メモ: An intriguing failing of convolutional neural networks and the CoordConv solution - け日記

            畳み込みニューラルネットワークが持つ座標変換の問題に着目してCoordConvを提案したAn intriguing failing of convolutional neural networks and the CoordConv solution (NeurIPS'18, arXiv) について紹介します。 @incollection{NIPS2018_8169, title = {An intriguing failing of convolutional neural networks and the CoordConv solution}, author = {Liu, Rosanne and Lehman, Joel and Molino, Piero and Petroski Such, Felipe and Frank, Eric and Sergeev, Alex and

              論文メモ: An intriguing failing of convolutional neural networks and the CoordConv solution - け日記
            • 時空間ビデオ接地のためのガウスカーネルベースのクロスモーダルネットワーク

              Gaussian Kernel-based Cross Modal Network for Spatio-Temporal Video Grounding 時空間ビデオグラウンディング(STVG)は、自然言語クエリに従って意味的に関心のあるオブジェクトの時空間チューブをローカライズすることを目的とした挑戦的なタスクです。以前の作品のほとんどは、Faster R-CNNによって抽出されたアンカーボックスに大きく依存しているだけでなく、ビデオを一連の個別のフレームと見なしているため、時間的モデリングが欠けています。代わりに、この論文では、ガウスカーネルベースのクロスモーダルネットワーク(GKCMN)と呼ばれるSTVGのアンカーフリーフレームワークを最初に提案しました。具体的には、各ビデオフレームの学習済みガウスカーネルベースのヒートマップを利用して、クエリ関連のオブジェクトを特定します。直列接

                時空間ビデオ接地のためのガウスカーネルベースのクロスモーダルネットワーク
              • 📖コンピュータビジョンの入門者向け おすすめ書籍 【ベスト7 (2022年・春版)】 | CVMLエキスパートガイド

                1. 記事の概要:おすすめ書籍の3カテゴリ コンピュータビジョンとディープラーニングの入門者むけ「おすすめ書籍」のうち,この記事では2022年(令和4年)・春 時点での,上位ベスト7の書籍を,以下3つのカテゴリで紹介したい: テキスト (2.1節) コーディングを学べる書籍(=作って学ぶ系) (2.2節) BERTの本 (2.3節) 大学の学部4年生ごろに,(ディープラーニングを用いた)コンピュータビジョン系の研究室に配属された際に,最初の半年~1年でまず読んでおくと脱初心者を達成しやすくなるおすすめ書籍ベスト7を紹介する.つまり,大学院でコンピュータビジョンを専門で学び研究する予定の人が,最初にこなしていくと良いと思う本を,7冊列挙する. 親ページ:📖コンピュータビジョン・ディープラーニングのおすすめ書籍リスト もちろん,エンジニアでこれからコンピュータビジョンや深層学習を学びたいとい

                  📖コンピュータビジョンの入門者向け おすすめ書籍 【ベスト7 (2022年・春版)】 | CVMLエキスパートガイド
                • 実験医学:AIとがん研究 その妥当性、有効性〜ゲノム・エピゲノムから細胞・医用画像まで

                  AIとがん研究 その妥当性、有効性ゲノム・エピゲノムから細胞・医用画像まで 浜本隆二/企画 2019年09月20日発行 B5判 145ページ ISBN 978-4-7581-2524-6 概論 がん研究におけるAI活用の重要性 Importance of AI technologies for cancer research浜本隆二 Ryuji Hamamoto:Division of Molecular Modification and Cancer Biology, National Cancer Center Research Institute(国立がん研究センター研究所がん分子修飾制御学分野) ディープラーニング(深層学習)技術の登場,GPU(graphics processing unit)を中核とした計算機環境の向上,およびデータベースの拡充によるビッグデータ利活用の簡便化な

                    実験医学:AIとがん研究 その妥当性、有効性〜ゲノム・エピゲノムから細胞・医用画像まで
                  • オープンソースの地理空間情報ソフトウェアをテーマとしたイベント「FOSS4G」が新潟で開催

                    オープンソースの地理空間情報ソフトウェアをテーマとしたイベント「FOSS4G」が新潟で開催 2019.09.30 イベント OSS, オープンデータ, コミュニティ オープンソースの地理空間情報ソフトウェア群を意味する「FOSS4G(Free Open Source Software for GeoSpatial)」をテーマとしたカンファレンス「FOSS4G 2019 NIIGATA」が9月13日と14日の2日間、新潟市のNICOプラザ会議室にて開催された。同カンファレンスは、オープンソース地理空間ソフトウェアの支援と構築を目的としたOSGeo財団(The Open Source Geospatial Foundation)の日本支部である「OSGeo日本支部 (OSGeo.JP)」が主催するイベントで、2008年にスタートし、これまで北海道や東京、東海、関西などのエリアで開催されてきた。

                      オープンソースの地理空間情報ソフトウェアをテーマとしたイベント「FOSS4G」が新潟で開催
                    • レンダリングを応用した画像セグメンテーション「PointRend」

                      3つの要点 ✔️CGのレンダリング技術を画像セグメンテーションに応用 ✔️領域に応じてサンプリング密度を変化させ、確度が低いピクセルのみを重点的に予測する「PointRend」を提案 ✔️演算量の増加を抑えつつ、インスタンス境界の分類において、高精度化を実現 PointRend: Image Segmentation as Rendering written by Alexander Kirillov, Yuxin Wu, Kaiming He, Ross Girshick (Submitted on 17 Dec 2019) subjects : Computer Vision and Pattern Recognition (cs.CV) 画像セグメンテーションは、自動運転などにも応用される重要な研究分野です。 従来のセグメンテーションの方法では、入力画像をエンコードし、特徴量マップと

                        レンダリングを応用した画像セグメンテーション「PointRend」
                      • 概論&全体的な研究トレンドの概観④(Cascade R-CNN、CBNet)|物体検出(Object Detection)の研究トレンドを俯瞰する #5 - Liberal Art’s diary

                        当シリーズでは物体検出の研究トレンドをまとめています。 #1ではHOG(Histograms of Oriented Gradient)[2005]からR-CNN[2013]までについて、#2ではFast R-CNN、FasterRCNN、YOLO、SSDについて、#3ではFPN、RetinaNet、M2Detについて、#4ではM2Detの著者実装について取り扱いました。 #5では2019年の研究として、Cascade R-CNN[2019]とCBNet[2019]について取り扱います。 以下目次になります。 1. Cascade R-CNN[2019] 2. CBNet[2019] 3. まとめ 1. Cascade R-CNN[2019] 1節では2019年6月の研究である"Cascade R-CNN: High Quality Object Detection and Instanc

                          概論&全体的な研究トレンドの概観④(Cascade R-CNN、CBNet)|物体検出(Object Detection)の研究トレンドを俯瞰する #5 - Liberal Art’s diary
                        • 画像ディープラーニングの始め方(画像系AIの概要理解からUdemy受講, E資格取得まで) - Qiita

                          本記事の目的 もともと本業でデータサイエンスやディープラーニングを扱っていたわけでもなく、ディープラーニング周りは「なんとなく知っている」という状態。ちゃんと勉強したいと思いながらもなかなか手が出ず、モデル実装の経験もない。 上記の状態から、この1年間くらいでやっと、初めてディープラーニング実装の経験をするところまでたどり着いた。とりあえずデータサイエンスの入口に立てた(かもしれない)ということで、整理のためここまで取り組んできたことをまとめてみた。 これから勉強を始める、誰かのために役立てば嬉しい。 <画像ディープラーニングの始め方> ◇ ステップ1. 画像系AIの全体像を把握する ◇ ステップ2. 画像分類を実装してみる ◇ ステップ3. 理論をフォローアップする ◇ ステップ4. 実装の経験を積む ステップ1.画像系AIの全体像を把握する とりあえず初心者向けの書籍や動画などを見て全

                            画像ディープラーニングの始め方(画像系AIの概要理解からUdemy受講, E資格取得まで) - Qiita
                          • 物体検出のDeepLearning読むべき論文7選とポイントまとめ【EfficientDetまでの道筋】 - Qiita

                            お久しぶりです。 2012年のHintonさんのAlexNetによるILSVRCでの圧勝を皮切りに、画像認識の世界でもDeepLearningが脚光を浴びることとなりました。 物体検出の世界でも現在DeepLearningを用いたモデルが主流になっています。 https://paperswithcode.com/sota/object-detection-on-coco を見ると、 COCO test-devにおいて、state-of-the-art(SoTA)のモデルはEfficientDet-D7xのようです。 独断と偏見も少々ありますが、そのEfficientDetを理解するために読むべき論文を7つ集めてみました。 DeepLearning以降の物体検出に焦点を当てて、出来るだけ簡潔につらつらと書いていきたいと思います。 物体検出とは 物体検出について知らないという人は以下の動画を見

                              物体検出のDeepLearning読むべき論文7選とポイントまとめ【EfficientDetまでの道筋】 - Qiita
                            • ハイパー核「ハイパートライトン」の生成と崩壊、理研などが可視的検出に成功

                              理化学研究所(理研)、岐阜大学、東北大学、立教大学の4者は9月14日、大強度陽子加速器施設J-PARCにおいてK中間子ビームが照射された写真乾板データを、独自に開発した機械学習モデルによって解析することで、ハイパー核の一種である「ハイパートライトン」の生成と崩壊の事象を可視的に検出することに成功したと発表した。 同成果は、理研 開拓研究本部 齋藤高エネルギー原子核研究室の齋藤武彦主任研究員、岐阜大 教育学部・工学研究科の仲澤和馬シニア教授(理研 開拓研究本部 齋藤高エネルギー原子核研究室 客員研究員兼任)、東北大大学院 理学研究科の吉田純也助教(理研 開拓研究本部 齋藤高エネルギー原子核研究室 客員研究員兼任)、立教大大学院 人工知能科学研究科の瀧雅人准教授、理研 開拓研究本部 齋藤高エネルギー原子核研究室の江川弘行基礎科学特別研究員、同・笠置歩大学院生リサーチ・アソシエイト、同・齋藤奈美

                                ハイパー核「ハイパートライトン」の生成と崩壊、理研などが可視的検出に成功
                              • E資格の為のポイントメモ

                                $$ (フィルタ) \times (入力画像) = (im_fh, im_fw) \times (im_h, im_w) $$ GoogleNetの特徴 Inceptionモジュール \(5 \times 5\)の畳み込みをするより、圧縮して\(5 \times 5, 3 \times 3, 1 \times 1\)を行う方が次元が減る。 なので、Inceptionモジュールは「スパースな畳み込み」とも呼ばれる 1 * 1の畳み込み チャンネル方向にのみ畳み込むので、重要なチャンネルを抽出してパラメータを減らすことができる オーグジュアリロス ネットワークの途中にも出力を作ることで、途中からもバックプロップさせ勾配消失を避けようとする手法。 あまり現在では使用されない。 Global Average Pooling 大きい画像を\(1px \times 1px\)に縮小するような動作 CN

                                • Mashykom ホーム・ページ

                                  以下の web site は人工知能及びロボティクスを基礎から学習したいと思う人たち向けの学習素材を提供します。入門編から中級レベルまでになっています。 なお、プログラミングに必要な言語(Python, C++, Rust , Javascript, Swift, WebGL)及び Linux OS の説明も付けました。 各ページで使用されるコードは GitHub repository 及びGoogle Colaboratoryにアップされています。 GitHub repository へアクセスするためには、GitHub のアカウントが必要です。 また、Googleのアカウントを登録しておけば、Python 環境が用意された Colaboratory で GPU を用いた機械学習が無料で実行できます。 ご要望やご意見の送信はこのEmail送信欄にお書きください。 OS and Progr

                                  • インスタンスセグメンテーション (Instance Segmentation) | CVMLエキスパートガイド

                                    同じ画素毎のクラス識別の中において,2個以上の同一クラスの複数インスタンスが写っている際に,セマンティックセグメンテーションでは,インスタンスの違いは区別せず「意味クラスの識別」だけをおこなう(図1-c).従って,図1-c のように,2つの「dog」インスタンス同士が物体間遮蔽している場合だと,それらの境界は判別できず,1領域につながった状態で各領域が推定される. 親記事:画像認識の代表的なタスクのまとめ [ディープラーニング] 関連記事:セマンティックセグメンテーション (Semantic Segmentation) 一方,インスタンスセグメンテーションでは,それぞれ個別のインスタンス領域マスクを区別するので,物体間の境界も区別して,各物体インスタンスのマスクを推定する(図1-d).従って,図1-dのように,物体間遮蔽した犬同士も個別に別領域としてマスクを推定する問題設定である.また,遮

                                      インスタンスセグメンテーション (Instance Segmentation) | CVMLエキスパートガイド
                                    • Explore and Exploit – A website of my research and notes

                                      ディープランニングの勉強によいと思われる講義、レクチャー、教科書などをまとめています。随時更新したいと思います 講義は主に大学の授業 レクチャーは関連カンファレンスなどの短編の発表 教科書はディープランニングの中心に扱っている教科書をあげています 個人的に全部目を通しているわけではないですが、ある程度チェックして勉強になるものを集めています。なお、個人的に興味あるのは音声と言語処理の部分なので、それ以外のもので漏れているものもあるかと思います。もしコメントかメールをいただければ随時足していきたいと思います。 自然言語処理 講義 NLPのディープランニング講義 スタンフォード大学のNLPのディープランニング講義。NLPの著名人のManning先生とその学生だったSocherさんが教えています。word2vecから始まり、Glove(Socherが著者の一人)、機械翻訳、Attention機構

                                      • Faster R-CNN | CVMLエキスパートガイド

                                        1. R-CNN (Region-CNN)とは [概要] R-CNN (Region-CNN)とは,2ステージ構成で,Coarse-to-Fineな予測を行う,2ステージ型 物体検出である [Girshick et al 続きを読む…

                                        • Computer Vision

                                          これまで勉強したディープラーニングによる一般物体検出手法のアルゴリズム一覧。 R-CNN (Regions with CNN features):ディープラーニングによる一般物体検出手法今まで一般物体認識や一般物体検出に […]

                                            Computer Vision
                                          • 【Instance Segmentation】MaskRCNN : Instance Segmentationの基礎 - Qiita

                                            概要 Semantic Segmentationは知ってるけど、Instance Segmentationの仕組みがわからない。どうやって物体毎に分類するんじゃ? てことでMaskRCNNをもう一度調べてみた。 使ったコードのリンク貼っておきます https://github.com/yokosyun/instance-segmentation semantic segmentaionについて知りたい方はこちら https://qiita.com/minh33/items/6e42041dd5108d5fc2f0 https://qiita.com/minh33/items/d800394f480b2d6eef33 Instance Segmentation(MaskRCNNの場合) RPNで推定されたBoundingBoxのエリアに対してのみsemantic segmentationする

                                              【Instance Segmentation】MaskRCNN : Instance Segmentationの基礎 - Qiita
                                            • 知識欲が湧いた週 - トミーのブログ

                                              今週のタイムライン 引っ越しの物件決定(日曜日) Quarkus(月曜日) CNNの応用の勉強(火曜日) Amazon PersonalizeのBatch recommendationを試した(水曜日) A*アルゴリズムをまとめた(金曜日) スープカレーを久々に食べた(土曜日) 話したいこと CNNの応用の勉強 A*アルゴリズムをまとめた CNNの応用の勉強 CNN(畳み込みニューラルネットワーク)は様々な分野で使われています。例えば、画像認識(その画像がなんの画像であるかの認識)、人検出など。その中の一つの物体検出を少し勉強しました。 上の画像では画像の中のどの部分に何が写っているかがわかります。こういったことをできるようにするのが物体検出です。物体検出は画像認識より難しそうだなということはわかります。 物体検出をできるようにするためには、 どの領域(画像の四角)を認識対象とするか 認識

                                                知識欲が湧いた週 - トミーのブログ
                                              • ディープラーニングの手法(G検定をまとめる, 2022.6.13) - Qiita

                                                「G検定をまとめる」の記事の項目の一つです。簡単にまとめて後付けしていくスタイルです。広く浅く学習していき、徐々に深くしていきます。 ディープラーニングの手法 ディープラーニングの手法を大きく分けるとCNN、RNN、Attension、生成モデル、強化学習、の5つに分けられます。 CNN(画像データ) CNNの基本的な構造 CNNの発展 AlexNet, VGG, GoogLeNet, Inceptionモジュール, ResNet, MobileNet, EfficientNet RNN(音声データ、テキストデータ) LSTM, GRU, BiRNN, エンコーダ-デコーダ, Pre-trained Models 応用タスクを解くための事前学習モデル GPT, BERT, ALBERT, DistilBERT, GPT-2, Megatron-LM, Turing-NLG, ViT Att

                                                  ディープラーニングの手法(G検定をまとめる, 2022.6.13) - Qiita
                                                • Colabで車載カメラ映像からの先行車両検出に関する既存公開手法(YOLOP, YOLO v5s BDD100K)を動かしてみる - Qiita

                                                  Colabで車載カメラ映像からの先行車両検出に関する既存公開手法(YOLOP, YOLO v5s BDD100K)を動かしてみるPythoncolaboratoryColabYOLOV5YOLOP 0.背景 車載カメラの画像に対する先行車両検出に関して以下の2つの公開されている手法を使ってみたのでメモとして残しておく。 YOLOP YOLO v5s BDD100k いずれもとりあえず動かすことを主眼にしている。 元々はSIGNATEのSUBARU 画像認識チャレンジのために使用した。 Google Colab + Google drive の環境での動作を前提としている。 1. 共通事項 車載カメラ映像では BDD100Kという大規模なデータセットが公開されている。 この頁で紹介する2つのモデルはいずれも、BDD100Kで学習されている。 いずれもSUBARU 画像認識チャレンジのデータに

                                                    Colabで車載カメラ映像からの先行車両検出に関する既存公開手法(YOLOP, YOLO v5s BDD100K)を動かしてみる - Qiita
                                                  • セグメンテーション – Transformers, Diffusers | ClassCat® Chatbot

                                                    画像と動画 : TorchVision 物体検出再調整チュートリアル このチュートリアルのために、歩行者検出とセグメンテーションのための Penn-Fudan データベース で事前訓練された Mask R-CNN モデルを再調整していきます。それは歩行者の 345 インスタンスを伴う 170 画像を含み、そしてそれを使用してカスタムデータセット上でインスタンス・セグメンテーションモデルを訓練するために torchvision の新しい特徴をどのように使用するかを示します。 データセットを定義する 物体検出、インスタンス・セグメンテーションと人物キーポイント検出のための参照スクリプトは新しいカスタムデータセットの追加を容易にサポートすることを可能にします。データセットは標準的な torch.utils.data.Dataset クラスから継承して、__len__ と __getitem__

                                                    • ラブライブ!スーパースター!のキャラを物体検出してみた。 - Qiita

                                                      どうもエンジニアのirohasです。 先日、物体検出の論文を漁っていて、最近流行りのYolov7の論文を読んで実装してみたので、必要に応じて解説しながら、どんな感じになったか紹介できればと思います。 (https://arxiv.org/pdf/2207.02696.pdf) 目次 1.はじめに 2.環境 3.物体検出って何? 4.Yoloとは 5.Yolov7の紹介 6.使用する作品について 7.キャラ紹介 8.データセットの前処理 9.データセットの作成 10.学習 11.結果 12.感想 13.参考文献 1. はじめに 皆さんはラブライブ!を知っていますか? アニメオタクなら一度は聞いたことがある伝説のアイドルアニメです。 ストーリーだけでなく、曲もライブコンテンツも素晴らしい作品なのでシリーズ通して全人類に見てもらいたい作品です。(クソデカボイス) 下にシリーズごとのサイト貼ってお

                                                        ラブライブ!スーパースター!のキャラを物体検出してみた。 - Qiita
                                                      • 深層学習を用いたセグメンテーションの紹介 セグメンテーションシリーズ①|スキルアップAI

                                                        こんにちは。スキルアップAI編集部です。 セグメンテーション(segmentation)は、コンピュータビジョンの主要なタスクの1つで、医療画像分析、自動運転、映像監視システムなど、幅広い分野で応用されています。本記事では、深層学習を用いたセグメンテーションについて、概括的に解説していきます。 1.セグメンテーションとは セグメンテーションとは、日本語で「分割」という意味で、機械学習においては、画像をいくつかのオブジェクトに分割するタスクのことを指します。現在、セグメンテーションには、大きく分けて3つのタスクがあります。図1にそれぞれのセグメンテーションの例を示します。 図1. セグメンテーションの例 (参考文献[1]より引用) 図1の(b)はセマンティックセグメンテーションと呼ばれるタスクで、画像中の全ての画素に対して、クラスラベルを予測することを目的とします。 図1の(c)はインスタン

                                                          深層学習を用いたセグメンテーションの紹介 セグメンテーションシリーズ①|スキルアップAI
                                                        • 【JDLA E資格】出題傾向分析 - Qiita

                                                          はじめに JDLA E資格試験の出題傾向について分析したことを、まとめた記事です。 なお、これは公式のものではなく、私が参考書や実際の経験をもとに出題傾向を分析したものです。 また、出題範囲を系統的分類し、外観しただけなので、具体的な解説はありません。 各パートの具体的な解説については、別途まとめる予定です。 E資格試験に関する私の投稿記事リスト 目次 公式シラバス 出題範囲の系統的分類 前提となる基礎数学 応用数学パート 機械学習パート 深層学習パート 開発・運用環境パート Pythonコード 出題パターン おわりに 公式シラバス JDLA公式シラバス 2020年版の詳細シラバス E資格対策問題集の章構成 第01章 線形代数 第02章 確率・統計 第03章 情報理論 第04章 機械学習の基礎 第05章 前処理・特徴選択・性能指標 第06章 モデルの評価・正則化・ハイパーパラメータ探索 第

                                                            【JDLA E資格】出題傾向分析 - Qiita
                                                          • PyTorchでObeject Detection

                                                            PyTorch はディープラーニングを実装する際に用いられるディープラーニング用ライブラリのPython APIの一つです。もともとは、Torch7と呼ばれるLua言語で書かれたライブラリでした。Chainerは日本のPreferred Networks社が開発したライブラリですが、Pytorchに統合されました。Caffe2もPyTorchに併合されました。現在、PyTorch は Team PyTorch によって開発されています。PyTorchの利点はDefine by Run(動的計算グラフ)と呼ばれる特徴です。Define by Runは入力データのサイズや次元数に合わせてニューラルネットワークの形や計算方法を変更することができます。 多くのユーザーを持つディープラーニングの Python API であるTensorFlow の特徴は Define and Run(静的計算グラフ

                                                            • Mask R-CNNをOpticalFlowで補間できないか試してみた - Qiita

                                                              概要 Mask R-CNNは、物体検出とインスタンスセグメンテーションを行うモデル。 ピクセル単位でセグメンテーションができるので、特定の人物だけをマスクするなんてことも可能。 ただ、1フレーム処理するのにやっぱり時間がかかるので、リアルタイム処理は厳しいですね。 そこで、物体検出と物体検出の間のフレームは、オプティカルフローでマスク画像の動きの変化を推定することで補間できないか試してみました。 方法 Mask R-CNNは、matterport版の実装を利用します。 コードは、AI Coordinatorさんの記事を参考にしました。 これに対して、補間処理を追加しました。 例えば、30fpsの入力動画に対して、10フレーム間隔で物体検出を行う場合、物体検出と物体検出の間の9フレームは、Opencvに実装された「密なオプティカルフロー」でピクセル毎の移動ベクトルを求め、マスク画像を更新しま

                                                                Mask R-CNNをOpticalFlowで補間できないか試してみた - Qiita
                                                              • 機能ベースのレート歪み最適化を備えたマシンのビデオコーディング

                                                                Video Coding for Machines with Feature-Based Rate-Distortion Optimization 一般的な最先端のビデオコーデックは、レート歪み最適化(RDO)によって実現される、最終的な人間の観察者に特定の品質を提供することにより、低ビットレートを提供するように最適化されています。しかし、コンピュータビジョンタスクを解決するニューラルネットワークの着実な改善により、ますます多くのマルチメディアデータが人間によって観察されるのではなく、ニューラルネットワークによって直接分析されるようになりました。この論文では、デコードされたフレームがマシンシナリオのビデオコーディングでニューラルネットワークによって分析されるときに、コーディングパフォーマンスを向上させるように設計された標準準拠の機能ベースのRDO(FRDO)を提案します。その範囲で、VTM

                                                                  機能ベースのレート歪み最適化を備えたマシンのビデオコーディング
                                                                • Amazon SageMaker を使用した分散型 TensorFlow トレーニングの実行 | Amazon Web Services

                                                                  Amazon Web Services ブログ Amazon SageMaker を使用した分散型 TensorFlow トレーニングの実行 TensorFlow は、複数のホストで複数の GPU を使用した分散型トレーニングを必要とするヘビーウェイトなディープニューラルネットワーク (DNN) の開発に広く使用されるオープンソースの機械学習 (ML) ライブラリです。Amazon SageMaker は、アクティブラーニングを使用したデータのラベル付けから、モデルの分散型トレーニング、トレーニングの進捗状況のモニタリング、訓練されたモデルの自動スケーリング可能な RESTful サービスとしてのデプロイメント、並列的な ML 実験の一元管理までの ML ワークフローをシンプル化するマネージドサービスです。 この記事では、Amazon SageMaker を使用した分散型 TensorFl

                                                                    Amazon SageMaker を使用した分散型 TensorFlow トレーニングの実行 | Amazon Web Services
                                                                  • チュートリアル: AzureMLでの大規模トレーニング

                                                                    原文: Tutorial: Training at Scale on AzureML Published 04/06/2021 By Phil Tooley Azure Machine Learningを使用して、大規模なAIモデルを迅速にトレーニングする 注: クラウドは移り変わりの速い環境です。このチュートリアルは2021年3月時点のものですが、サービスの最新のアップデートについては、Azure Machine Learning Documentation をご確認ください。 AIと機械学習は、科学、産業、ビジネスに変革をもたらし、その応用範囲は常に拡大しています。進歩のスピードはとどまるところを知らず、モデルはますます複雑になり、データセットはますます大きくなるため、1台のGPU、あるいは複数のGPUを搭載した1台のマシンでは十分ではありません。大規模なGPUクラスターでの分散型トレ

                                                                    • 精度を維持したままパラメータ数を大幅に削減「GhostNet」

                                                                      3つの要点 ✔️特徴マップの冗長性に着目し、単純な処理によりモデルを軽量化 ✔️精度を維持したままモデルの軽量化、高速推論を実現した ✔️GhostNetはMobileNetV3などの最新の効率的なモデルを推論速度と精度の両面で上回っている GhostNet: More Features from Cheap Operations written by Kai Han, Yunhe Wang, Qi Tian, Jianyuan Guo, Chunjing Xu, Chang Xu (Submitted on 27 Nov 2019) subjects : Computer Vision and Pattern Recognition (cs.CV) 本論文の実装はこちら(TensorFlow)とこちら(PyTorch)にあります。 1.導入 近年のCNNの発展により、画像分類において機械

                                                                        精度を維持したままパラメータ数を大幅に削減「GhostNet」
                                                                      • 【2D OD】Region ProposalからAnchor Boxへ - Qiita

                                                                        2stage detectorと1stage detector R-CNN, Fast-RCNN, Faster-RCNNが遅かったのはRegion Proposalを用いた2stageのネットワークをだったから。 Region Proposalは多くの物体を提案してしまい処理速度が遅くなる。 それを解決すべく登場したのがYoloでも使われているAnchor Box。 Anchor Boxとは? 様々なサイズや縦横比の長方形のBoxをAnchor Boxという。 Anchor Boxを用いた物体検出 CNNによって画像を畳み込み、それぞれのAnchor Boxのサイズのオフセット、位置のオフセット等を学習する事で物体の位置を推測する。 上の画像を例にしてみる。まず2種類のAnchor Boxを16エリアに分けて定義する。右上の飛行機がいるエリアの緑色のAnchor Boxは得られたFeat

                                                                          【2D OD】Region ProposalからAnchor Boxへ - Qiita
                                                                        • AI学習のためのPython学習計画 - Qiita

                                                                          背景と目的 AIを勉強するための一番最初のスタートとなる記事です 学びたいと思いつつ何をしたらいいのかわからなかったのでやることを調べてまとめた記事です。 ちゃんとAIが勉強できるように計画を立てる 方向性を間違えて明後日の方向に勉強してしまっては勿体無いので、まずはどういう勉強をしたらいいのかwebベースで調べて、計画します。 結論 下記サイトが非常によくまとめられているので下記サイトをシラバスとして取り扱う https://blog.kikagaku.co.jp/2020/04/06/how-to-learn-ai/ 実際の学習は下記「ディープラーニング入門Chainer チュートリアル」で進める https://tutorials.chainer.org/ja/index.html 開発環境はGoogle colaboratory(ブラウザで実行できる手軽さがあるようです) 余談、マ

                                                                            AI学習のためのPython学習計画 - Qiita
                                                                          • 【PyTorchチュートリアル⑧】TorchVision Object Detection Finetuning Tutorial - Qiita

                                                                            このチュートリアルでは、事前トレーニング済みの Mask R-CNN を利用し、ファインチューニング、転移学習を見ていきます。 学習に利用するデータは歩行者の検出とセグメンテーションのためのPenn-Fudanデータです。このデータは、歩行者(インスタンス)が345人いる、170個の画像が用意されています。 まず、pycocotools のライブラリをインストールする必要があります。このライブラリは、「Intersection over Union」 と呼ばれる評価の計算に使用されます。 「Intersection over Union」 は、物体検知における領域の一致具合を評価する手法の1つです。 ※ 2020.10.18 時点では Colaboratory に pycocotools がすでにインストールされています。以下のコード( pip install )は実行しなくても進めること

                                                                              【PyTorchチュートリアル⑧】TorchVision Object Detection Finetuning Tutorial - Qiita
                                                                            • 異種ドキュメント画像からのロバストなテーブル検出と構造認識

                                                                              Robust Table Detection and Structure Recognition from Heterogeneous Document Images テーブルの境界を検出し、異種のドキュメント画像からテーブルのセルラー構造を再構築するために、RobusTabNetという名前の新しいテーブル検出および構造認識アプローチを導入します。テーブル検出については、CornerNetを新しいリージョン提案ネットワークとして使用して、Faster R-CNNの高品質のテーブル提案を生成することを提案します。これにより、テーブル検出のFasterR-CNNのローカリゼーション精度が大幅に向上しました。その結果、私たちのテーブル検出アプローチは、軽量のResNet-18バックボーンネットワークのみを使用することにより、3つのパブリックテーブル検出ベンチマーク、つまりcTDaR TrackA

                                                                                異種ドキュメント画像からのロバストなテーブル検出と構造認識
                                                                              • 自動運転車セキュリティ入門 第4回:意思決定モデルに対する敵対的攻撃 - 回避攻撃 - | 技術者ブログ | 三井物産セキュアディレクション株式会社

                                                                                現在、世界各国で自動運転車の開発が盛んに行われています。 自動運転車は、人間が運転操作を行わなくとも自動で走行できる自動車と定義されており、カメラやレーダー、GPSなどのセンサー類や、高精細の地図情報を配信するクラウドサービス、また、他車両と通信を行うネットワークサービスなどを組み合わせることで、自律的な走行を実現しています。また、より完全な自律走行を実現するために、道路標識や歩行者などの認識や、運転操作の意思決定をディープラーニング・モデルで行う自動運転車も開発が進んでいます。 このように、自動運転車には「繋がる」「自律走行」という、従来の自動車にはなかった新たな性質が加わっています。しかし、これと同時に、センサー類やクラウドサービス連携に対する攻撃や、ディープラーニング・モデルに対する攻撃といった、従来の自動車にはなかった新たな攻撃経路も生まれています。 そこで、本連載は「自動運転車・

                                                                                  自動運転車セキュリティ入門 第4回:意思決定モデルに対する敵対的攻撃 - 回避攻撃 - | 技術者ブログ | 三井物産セキュアディレクション株式会社
                                                                                • 【Mask R-CNN】AttributeError: 'Model' object has no attribute 'metrics_tensors' にぶち当たったら考えること。 - Qiita

                                                                                  【Mask R-CNN】AttributeError: 'Model' object has no attribute 'metrics_tensors' にぶち当たったら考えること。Pythonmask-r-cnnmatterport Mask R-CNNの続き 修士研究で植生の検出をするために、matterport社のMask R-CNNを使ってインスタンスセグメンテーションを実装しています。 他にもエラー記事をまとめているのでご覧下さい。 AttributeError: module 'tensorflow' has no attribute 'log' を解決した話。 【前編】Mask R-CNNで発生したエラー「UserWarning: An input could not be retrieved. It could be because a worker has died」を

                                                                                    【Mask R-CNN】AttributeError: 'Model' object has no attribute 'metrics_tensors' にぶち当たったら考えること。 - Qiita