サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
アメリカ大統領選
qiita.com/PINTO
PyTorch, ONNX, Caffe, OpenVINO (NCHW) のモデルをTensorflow / TensorflowLite (NHWC) へお手軽に変換するDeepLearningCaffeTensorFlowPyTorchONNX 日本語 English 1. はじめに いつも左中間を狙うようなプチニッチなふざけた記事ばかりを量産しています。 この記事の手順を実施すると、 最終的に PyTorch製 高精度Semantic Segmentation の U^2-Net を TensorFlow Lite へ変換することができます。 下図のような感じです。 TensorFlow めちゃくちゃ扱いにくいです。 日々公開される最新のとても面白いモデルは軒並みPyTorch実装ですし、なんでTensorFlowで実装してくれないんだ!! と、常日頃思っています。 論文のベンチマ
[Tensorflow Lite] Various Neural Network Model quantization methods for Tensorflow Lite (Weight Quantization, Integer Quantization, Full Integer Quantization, Float16 Quantization, EdgeTPU). As of May 05, 2020.PythonDeepLearningTensorFlowPyTorchOpenVINO 日本語 English - Japanese - 1. Introduction 今回は私が半年間掛けてためてきた、学習済みモデルの量子化ワークフローをメモがてら共有したいと思います。 Tensorflow の checkpoint (.ckpt/.meta)、 FreezeGraph (.
Learn "Openpose" from scratch with MobileNetv2 + MS-COCO and deploy it to OpenVINO/TensorflowLite (Inference by OpenVINO/NCS2) Part.2PythonRaspberryPiOpenPoseTensorflowLiteOpenVINO MobileNetV2-PoseEstimation Tensorflow-bin 1.Introduction 前回記事 Learn "Openpose" from scratch with MobileNetv2 + MS-COCO and deploy it to OpenVINO/TensorflowLite Part.1 により、Openpose のトレーニング実施と OpenVINO / Tensorflow Lite モ
import argparse import platform import numpy as np import cv2 import time from PIL import Image from edgetpu.detection.engine import DetectionEngine # Function to read labels from text files. def ReadLabelFile(file_path): with open(file_path, 'r') as f: lines = f.readlines() ret = {} for line in lines: pair = line.strip().split(maxsplit=1) ret[int(pair[0])] = pair[1].strip() return ret def main():
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
qiita.com
RaspberryPi3とOpenVINOでマルチモデル+マルチNCS2の顔検出+感情検出プログラム作成 (inspired by kodamapさん) OpenVINO-EmotionRecognition 1.はじめに 2019.03.05 マルチスティックによるブーストに正式対応しました。 NCS2 x2 で 30FPS オーバーです。 先週、ドバイのスタートアップ企業のエンジニアから、突然メールでプログラム作成の依頼を受けました。 OpenVINOで高速なエモーション検出を行いたい、ということのようです。 そのエンジニアは、 @kodamapさん の実装に感銘を受けた、とおっしゃっていました。 だったら、なんで kodamapさん じゃなくて私に依頼してきたんだろ? と、意味不明です。 kodamap さんの実装は正直すごいです。 顔検出系のロジックがFlaskで全網羅されていて、
Tensorflow Lite (TensorflowLite) / Tensorflow+RaspberryPi+Python で超軽量 "Semantic Segmentation" モデル "UNet" "ENet" を実装する_軽量モデル_その2PythonRaspberryPiDeepLearningTensorFlowSemanticSegmentation TensorflowLite-UNet Tensorflow-bin TensorflowLite-bin I wrote in English article, here (TensorflowLite-UNet) 【!注意!】 この記事を先頭から末尾までクソ真面目にトレースすると、「ただひたすら待つ」 という苦行に耐えるために カップラーメン600個 を手配する必要がある。 精神 と 財力 に余裕がある方、あるいは 悟
zumo32u4 #◆ 前回記事 RaspberryPi3とZumoとROSで半永久自走式充放電ロボを作成したい_007日目_SLAM_MONO-VO(単眼カメラ視差推定) の続き #◆ はじめに 前回 は単眼カメラによる視差推定(MONO-VO)という技法を使ってSLAMを行ってみた。 単眼カメラによる視差推定は、自己位置推定という観点ではアリなのだが、自分が移動した経路以外の周辺環境に関する情報が希薄に見えたので、周辺環境を考慮した自律航行にはなんとなく不向きに感じた。 今回は最もメジャーらしいアルゴリズム 「GMapping」 を試行してみる。 001日目 に記載のとおり、最終的にはPC非介在での自律航行が目的なので、軽量なアルゴリズムだといいなぁ。 チュートリアルひとつ動かすごとにことごとく意味を理解できず、あちこち迷走しながら進めたために長めの記事となる。 非公式な Raspbe
#◆ 前回記事 RaspberryPi3とZumoとROSで半永久自走式充放電ロボを作成したい_006日目_Arduino+RaspberryPi+Bluetooth+シリアル通信+ROS連携 の続き #◆ はじめに 前回はBluetoothによるロボット遠隔操作を試行した。 今回からLiDARやカメラを使ったSLAMに挑戦したい。 Qiitaやブログに関連記事を投稿してくださっている方は沢山いらっしゃるので読みあさってみたが・・・原理を細かく理解しようとした時点で負けが確定するシロモノだ。 言うなれば、何も考えずただボタンを押すだけの今時仕様から、一夜にしてサボテンやピエロを直視で目押ししてDDTしなければ確実に負けるほどの難易度に急上昇した、と言えば、自分が今置かれている状況がご理解頂けるだろうか。 ※上記一文が意味不明な方々は華麗にスルーしてあげてください。 いっそのこと割りきって仕
Intelさんがまた褒めてくれたヽ(゚∀゚)ノ イエァ RaspberryPi3でMobileNet-SSD(MobileNetSSD)物体検出とRealSense測距(640x480) 再生フレームレート25FPS以上 + 予測レート12FPSを達成したよPythonRaspberryPiRealSenseMovidiusMobileNetSSD MobileNet-SSD-RealSense I wrote an English translation at the end of the article 画像サイズが大きいため、Wi-Fi環境下での閲覧を推奨 #◆ 前回記事 デプスカメラRealSenseD435で "紫色のイカ" や "オレンジ色の玉ねぎ" を切り取ったり "金髪の人" を追っかけて距離を測る(1) with Ubuntu16.04 デプスカメラRealSenseD4
MobileNet-SSD-RealSense #◆ はじめに 小遣いをチマチマ貯めてついに購入してしまった、Intel RealSense D435 (税抜き¥28,350) 360°LiDARの RPLidar A1M8 より ¥5,000 も高い。 スイッチサイエンスさんのWEBショップでは 「6/26時点 入荷時期未定」 となっていたが、楽天では普通に 「在庫有り」 の店舗が何店舗かあったため即購入。 4月に無謀にも 自律走行ロボ作成の決意表明 をしてから、7月まで猛烈に突っ走ってきたので、ちょっとだけ他事に浮気してみる。 尊敬するブロガーさんから マニアック認定 を頂戴していたようなので、今後も張り切ってニッチ路線を邁進していこうと思う。 ギャンブルジャンキーだったヤツが、こうもドップリとハードにハマってしまうものなのだろうか。。。 (最近はタバコとコーヒーを買う以外の小遣いを、
RaspberryPi3 (Raspbian Stretch) + Intel Movidius Neural Compute Stick(NCS) + RealSenseD435 + MobileNet-SSD(MobileNetSSD) で高速に物体検出しつつ悟空やモニタまでの距離を測るPythonRaspberryPiRealSenseMovidiusMobileNetSSD MobileNet-SSD-RealSense #◆ 前回記事 デプスカメラRealSenseD435で "紫色のイカ" や "オレンジ色の玉ねぎ" を切り取ったり "金髪の人" を追っかけて距離を測る(1) with Ubuntu16.04 デプスカメラRealSenseD435で "紫色のイカ" や "オレンジ色の玉ねぎ" を切り取ったり "金髪の人" を追っかけて距離を測る(2) with Raspber
MobileNet-SSD-RealSense I wrote it in English in the comment section. スマホで閲覧すると画像が激重なためPCでの閲覧を推奨 #◆はじめに Intelのアーキテクト AshwinVijayakumar(アシュウィンヴィジャヤクマール) から、「仲間が頑張っているのを見るととても嬉しい。MobileNet SSDもなかなかCOOLだぜ。調べてみなよ。」というニュアンスの、押しつけがましい有難いコメントをいただいたため、早速、速度と精度の観点でRaspberryPiでどれほどのパフォーマンスが得られるか、を検証する。 SSD は Yoloより遅い、と今まで思い込んでいたが、はたしてどうかな? #◆いきなり結果 あまりの速さと精度で検出されるため、あっけにとられてしまった。 今までYoloで頑張っていた自分は一体なんだったのか、
#◆【学習用PC】 指定フォルダ内の複数静止画ファイル、複数物体周囲をまとめて機械的に透過加工 背景が白色に近い色・物体が白色/灰色以外の配色で構成されている場合のみ動作 1画像内に複数物体が写っている場合は物体数分の画像ファイルへ分割して加工 入力画像が長方形であっても最終生成画像は物体を含む96×96の正方形 エッジ抽出の都合上、重なり合っている物体は1つと認識される 検出された物体の面積が1000pxに満たない場合は当該物体を抽出対象から除外 最終生成された画像内に物体が存在しないと判断される場合はファイルを生成しない メイン部は、ほぼオリジナルロジック (1) 編集元画像 1920x1080 (2) 元画像の背景白色化 (3) 物体検出 (4) 背景透過処理後PNGファイル2枚 96x96 ※上段のイメージ上下左右両端には黒い枠が見えるが下段のように実際の生成画像は白黒の部分が透過
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? I wrote it in English in the comment section. #◆はじめに Intel公式ForumにてIntelのアーキテクトから当記事を取り上げて頂いたようでViewの伸びが凄まじいが、取り上げてもらえるほどクレバーな記事ではない気が… さておき、前回、NCS(Neural Compute Stick) + Raspberry Pi 3 Model B + WebカメラでDeepLearning複数動体検知環境を構築したが、かなり動作スピードが改善したとはいえ、まだまだモッサリ感があってイライラしたため
このページを最初にブックマークしてみませんか?
『@PINTOのマイページ - Qiita』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く