ブックマーク / jp.mathworks.com (9)

  • 魚眼キャリブレーションの基礎 - MATLAB & Simulink - MathWorks 日本

    このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。 魚眼キャリブレーションの基礎カメラのキャリブレーションは、カメラの外部パラメーターと内部パラメーターを計算するプロセスです。カメラのキャリブレーションを行うと、イメージ情報を使用して 2 次元イメージから 3 次元情報を復元できます。また、魚眼カメラで撮影したイメージの歪みを補正できます。Computer Vision Toolbox™ には、ピンホール カメラ モデル用と魚眼カメラ モデル用のキャリブレーション アルゴリズムが含まれています。魚眼カメラ モデルで使用できる視野 (FOV) は 195 度までです。 魚眼カメラはオドメトリで、自己位置推定と環境地図作成の同時実行 (SLAM) の問題を視覚的に解決するために使用されます。360 度の視野 (FOV) およびスティッチング アルゴリズムを

  • カメラ キャリブレーションとは - MATLAB & Simulink - MathWorks 日本

    カメラ キャリブレーションとは"幾何学的カメラ キャリブレーション" は "camera resectioning" とも呼ばれ、レンズおよびイメージまたはビデオ カメラのイメージ センサーのパラメーターを推定します。これらのパラメーターを使用して、レンズ歪みの修正や、オブジェクトのワールド単位でのサイズ測定、シーン内のカメラ位置の判定などを実行できます。これらのタスクはマシン ビジョンなどのアプリケーションでオブジェクトの検出と測定に使用されます。また、ロボティクスのナビゲーション システムや、3 次元シーン再構成などにも使用されます。 カメラのキャリブレーションを行うと、以下のようなことが可能になります。 カメラのパラメーターには内部パラメーター、外部パラメーターおよび歪み係数が含まれます。カメラのパラメーターを推定するには、3 次元ワールド ポイントとそれに対応する 2 次元のイメー

  • MATLAB での Visual SLAM の実装 - MATLAB & Simulink - MathWorks 日本

    このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。 MATLAB での Visual SLAM の実装Visual simultaneous localization and mapping (vSLAM) とは、環境地図作成を行うのと同時に、周囲に対するカメラの位置と向きを計算する処理を意味します。この処理では、カメラからの視覚的入力のみを使用します。Visual SLAM の用途には、拡張現実、ロボティクス、自動運転などがあります。SLAM が重要である理由や、さまざまな用途での SLAM の応用例の全般的な説明については、SLAM とはを参照してください。 Visual SLAM アルゴリズムは、カメラの動きを推定する方法に応じて、大きく 2 つのカテゴリに分類されます。特徴ベースの間接法では、イメージの特徴点を使用して再投影誤差を最小限に抑えま

  • 単眼ビジュアル オドメトリ - MATLAB & Simulink - MathWorks 日本

    ビジュアル オドメトリは、イメージのシーケンスを解析してカメラの位置と向きを決定するプロセスです。ビジュアル オドメトリは、移動ロボット、自動運転車、無人航空機など、さまざまな用途に使用されます。この例では、イメージのシーケンスからキャリブレーションされた単一カメラの軌跡を推定する方法を説明します。 概要この例では、2 次元ビューのシーケンスからキャリブレーションされたカメラの軌跡を推定する方法を説明します。この例では、筑波大学のコンピューター ビジョン研究室 (CVLAB) で作成された New Tsukuba Stereo Dataset に含まれるイメージを使用します (https://cvlab.cs.tsukuba.ac.jp)。このデータセットはコンピューター グラフィックスを使用して生成された合成イメージで構成されており、カメラの姿勢のグラウンド トゥルースが含まれています。

  • 固有値および固有ベクトルのサブセット - MATLAB eigs - MathWorks 日本

    d = eigs(A) は、行列 A について、絶対値が最も大きい 6 個の固有値からなるベクトルを返します。これは大規模なスパース行列など、eig を使用してすべての固有値を計算すると計算負荷が高くなる場合に非常に便利です。

  • 単眼の Visual Simultaneous Localization and Mapping - MATLAB & Simulink - MathWorks 日本

    Visual simultaneous localization and mapping (vSLAM) とは、環境地図作成を行うのと同時に、周囲に対するカメラの位置と向きを計算する処理を意味します。この処理では、カメラからの視覚的入力のみを使用します。vSLAM の用途には、拡張現実、ロボティクス、自動運転などがあります。 この例では、単眼カメラのイメージ データを処理して屋内環境マップを作成し、カメラの軌跡を推定する次の 2 つの実装を示します。 モジュール式で変更可能: 最初の実装では、MATLAB での Visual SLAM の実装で説明されている関数とクラスを使用して、Visual SLAM パイプラインを段階的に構築します。この実装はモジュール式であり、一般的で信頼性の高い ORB-SLAM [1] アルゴリズムに基づいて、vSLAM 実装の詳細を大まかに説明することを目的と

  • structure from motion の概要 - MATLAB & Simulink - MathWorks 日本

    このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。 structure from motion の概要structure from motion (SfM) は、一連の 2 次元イメージから 3 次元シーンの構造を推定するプロセスです。SfM は、3 次元スキャン、拡張現実、および Visual simultaneous localization and mapping (vSLAM) など、多くのアプリケーションで使用されています。 SfM は多くの異なる方法で計算することができます。問題に取り組む方法は、使用するカメラの台数やタイプ、イメージが順序付けられているかどうかなど、さまざまな要素によって異なります。キャリブレーションされた単一のカメラでイメージが撮影される場合、"スケールに沿った" 3 次元構造とカメラの動きのみを復元できます。"スケール

  • ARM Mali GPU での深層学習の予測 - MATLAB & Simulink - MathWorks 日本

    この例では、関数 cnncodegen を使用して、ARM® Mali GPU での深層学習を使用するイメージ分類アプリケーションのコードを生成する方法を説明します。この例では、MobileNet-v2 DAG ネットワークを使用してイメージ分類を実行します。生成コードはコンピューター ビジョンおよび機械学習用の ARM Compute Library を利用します。 ARM Mali GPU ベースのハードウェア。たとえば、HiKey960 は Mali GPU を含むターゲット プラットフォームの 1 つです。 Mali GPU 向けにビルドされたターゲット ARM ハードウェアの ARM Compute Library。 ターゲット ARM ハードウェア上の Open Source Computer Vision Library (OpenCV v2.4.9)。 コンパイラおよびライ

  • SLAMとは? - これだけは知っておきたい3つのこと

    SLAM (Simultaneous Localization and Mapping, 自己位置推定と環境地図作成の同時実行) とは文字通り移動体の移動体の自己位置推定と環境地図作成を同時に行う技術の総称です。SLAMを活用することで、自動運転、自律移動ロボット(AGV)、ドローンなどをはじめとした移動体が未知の環境下での環境地図を作成し、自分がどこにいるのか、周辺がどうなっているのかを把握することができます。構築した地図情報を使って障害物などを回避しつつ、特定のタスクを遂行します。 SLAMを活用する上で知っておきたい3つのことについて解説していきます。 SLAMは技術的には古くから研究されていましたが、近年、コンピューターの性能が向上し、かつ、カメラやレーザーレンジファインダーなどのセンサーが低価格で入手可能になったことで、様々な分野に活用が広がっています。また、SLAMの特徴として

  • 1