サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
中東情勢
qiita.com/PINTO
PyTorch, ONNX, Caffe, OpenVINO (NCHW) のモデルをTensorflow / TensorflowLite (NHWC) へお手軽に変換するDeepLearningCaffeTensorFlowPyTorchONNX 日本語 English 1. はじめに いつも左中間を狙うようなプチニッチなふざけた記事ばかりを量産しています。 この記事の手順を実施すると、 最終的に PyTorch製 高精度Semantic Segmentation の U^2-Net を TensorFlow Lite へ変換することができます。 下図のような感じです。 TensorFlow めちゃくちゃ扱いにくいです。 日々公開される最新のとても面白いモデルは軒並みPyTorch実装ですし、なんでTensorFlowで実装してくれないんだ!! と、常日頃思っています。 論文のベンチマ
[Tensorflow Lite] Various Neural Network Model quantization methods for Tensorflow Lite (Weight Quantization, Integer Quantization, Full Integer Quantization, Float16 Quantization, EdgeTPU). As of May 05, 2020.PythonDeepLearningTensorFlowPyTorchOpenVINO 日本語 English - Japanese - 1. Introduction 今回は私が半年間掛けてためてきた、学習済みモデルの量子化ワークフローをメモがてら共有したいと思います。 Tensorflow の checkpoint (.ckpt/.meta)、 FreezeGraph (.
Learn "Openpose" from scratch with MobileNetv2 + MS-COCO and deploy it to OpenVINO/TensorflowLite (Inference by OpenVINO/NCS2) Part.2 MobileNetV2-PoseEstimation Tensorflow-bin 1.Introduction 前回記事 Learn "Openpose" from scratch with MobileNetv2 + MS-COCO and deploy it to OpenVINO/TensorflowLite Part.1 により、Openpose のトレーニング実施と OpenVINO / Tensorflow Lite モデルを生成しました。 今回は作成した学習済みファイルとPythonでOpenVINOとTens
import argparse import platform import numpy as np import cv2 import time from PIL import Image from edgetpu.detection.engine import DetectionEngine # Function to read labels from text files. def ReadLabelFile(file_path): with open(file_path, 'r') as f: lines = f.readlines() ret = {} for line in lines: pair = line.strip().split(maxsplit=1) ret[int(pair[0])] = pair[1].strip() return ret def main():
RaspberryPi3用のTensorflow v2.0.0-alpha (Tensorflow Lite v1.0) のインストーラ(Wheel)を速攻でネイティブビルド錬成したPythonRaspberryPiwheelTensorFlowTensorflowLite Bazel_bin Tensorflow-bin 1.はじめに 公開されて3日目の Tensorflow v2.0.0-alpha を RaspberryPi3 でネイティブビルドして Wheelファイル を自力生成しました。 だんだんこのビルド作業に小慣れてきて、ノーミスで一発成功しました。 どうやら 公式のリポジトリ よりも先にビルドに成功してしまったようです。。。 アホすぎて誰も真似しないと思いますが念の為お伝えしておきますと、 生成完了まで 41時間30分 掛かります。 狂ってる、とか冷たいことを言わないでくだ
qiita.com
RaspberryPi3とOpenVINOでマルチモデル+マルチNCS2の顔検出+感情検出プログラム作成 (inspired by kodamapさん) OpenVINO-EmotionRecognition 1.はじめに 2019.03.05 マルチスティックによるブーストに正式対応しました。 NCS2 x2 で 30FPS オーバーです。 先週、ドバイのスタートアップ企業のエンジニアから、突然メールでプログラム作成の依頼を受けました。 OpenVINOで高速なエモーション検出を行いたい、ということのようです。 そのエンジニアは、 @kodamapさん の実装に感銘を受けた、とおっしゃっていました。 だったら、なんで kodamapさん じゃなくて私に依頼してきたんだろ? と、意味不明です。 kodamap さんの実装は正直すごいです。 顔検出系のロジックがFlaskで全網羅されていて、
Tensorflow Lite (TensorflowLite) / Tensorflow+RaspberryPi+Python で超軽量 "Semantic Segmentation" モデル "UNet" "ENet" を実装する_軽量モデル_その2PythonRaspberryPiDeepLearningTensorFlowSemanticSegmentation TensorflowLite-UNet Tensorflow-bin TensorflowLite-bin I wrote in English article, here (TensorflowLite-UNet) 【!注意!】 この記事を先頭から末尾までクソ真面目にトレースすると、「ただひたすら待つ」 という苦行に耐えるために カップラーメン600個 を手配する必要がある。 精神 と 財力 に余裕がある方、あるいは 悟
RaspberryPi3とZumoとROSで半永久自走式充放電ロボを作成したい_008日目_SLAM_GMapping_LiDAR(A1M8)PythonC++RaspberryPiROSIoT zumo32u4 ◆ 前回記事 RaspberryPi3とZumoとROSで半永久自走式充放電ロボを作成したい_007日目_SLAM_MONO-VO(単眼カメラ視差推定) の続き ◆ はじめに 前回 は単眼カメラによる視差推定(MONO-VO)という技法を使ってSLAMを行ってみた。 単眼カメラによる視差推定は、自己位置推定という観点ではアリなのだが、自分が移動した経路以外の周辺環境に関する情報が希薄に見えたので、周辺環境を考慮した自律航行にはなんとなく不向きに感じた。 今回は最もメジャーらしいアルゴリズム 「GMapping」 を試行してみる。 001日目 に記載のとおり、最終的にはPC非介在で
RaspberryPi3とZumoとROSで半永久自走式充放電ロボを作成したい_007日目_SLAM_MONO-VO(単眼カメラ視差推定)C++RaspberryPiROSIoTSLAM ◆ 前回記事 RaspberryPi3とZumoとROSで半永久自走式充放電ロボを作成したい_006日目_Arduino+RaspberryPi+Bluetooth+シリアル通信+ROS連携 の続き ◆ はじめに 前回はBluetoothによるロボット遠隔操作を試行した。 今回からLiDARやカメラを使ったSLAMに挑戦したい。 Qittaやブログに関連記事を投稿してくださっている方は沢山いらっしゃるので読みあさってみたが・・・原理を細かく理解しようとした時点で負けが確定するシロモノだ。 言うなれば、何も考えずただボタンを押すだけの今時仕様から、一夜にしてサボテンやピエロを直視で目押ししてDDTしなければ
Intelさんがまた褒めてくれたヽ(゚∀゚)ノ イエァ RaspberryPi3でMobileNet-SSD(MobileNetSSD)物体検出とRealSense測距(640x480) 再生フレームレート25FPS以上 + 予測レート12FPSを達成したよPythonRaspberryPiRealSenseMovidiusMobileNetSSD MobileNet-SSD-RealSense I wrote an English translation at the end of the article 画像サイズが大きいため、Wi-Fi環境下での閲覧を推奨 ◆ 前回記事 デプスカメラRealSenseD435で "紫色のイカ" や "オレンジ色の玉ねぎ" を切り取ったり "金髪の人" を追っかけて距離を測る(1) with Ubuntu16.04 デプスカメラRealSenseD43
デプスカメラRealSenseD435で "紫色のイカ" や "オレンジ色の玉ねぎ" を切り取ったり "金髪の人" を追っかけて距離を測る(1) with Ubuntu16.04C++RaspberryPiRealSenseMovidiusMobileNetSSD MobileNet-SSD-RealSense ◆ はじめに 小遣いをチマチマ貯めてついに購入してしまった、Intel RealSense D435 (税抜き¥28,350) 360°LiDARの RPLidar A1M8 より ¥5,000 も高い。 スイッチサイエンスさんのWEBショップでは 「6/26時点 入荷時期未定」 となっていたが、楽天では普通に 「在庫有り」 の店舗が何店舗かあったため即購入。 4月に無謀にも 自律走行ロボ作成の決意表明 をしてから、7月まで猛烈に突っ走ってきたので、ちょっとだけ他事に浮気してみる。
RaspberryPi3 (Raspbian Stretch) + Intel Movidius Neural Compute Stick(NCS) + RealSenseD435 + MobileNet-SSD(MobileNetSSD) で高速に物体検出しつつ悟空やモニタまでの距離を測るPythonRaspberryPiRealSenseMovidiusMobileNetSSD MobileNet-SSD-RealSense ◆ 前回記事 デプスカメラRealSenseD435で "紫色のイカ" や "オレンジ色の玉ねぎ" を切り取ったり "金髪の人" を追っかけて距離を測る(1) with Ubuntu16.04 デプスカメラRealSenseD435で "紫色のイカ" や "オレンジ色の玉ねぎ" を切り取ったり "金髪の人" を追っかけて距離を測る(2) with Raspberr
YoloV2 より超速 MobileNetSSD+Neural Compute Stick(NCS)+Raspberry Piによる爆速・高精度の複数動体検知PythonRaspberryPiDeepLearningIoTMovidius MobileNet-SSD-RealSense I wrote it in English in the comment section. スマホで閲覧すると画像が激重なためPCでの閲覧を推奨 ◆はじめに Intelのアーキテクト AshwinVijayakumar(アシュウィンヴィジャヤクマール) から、「仲間が頑張っているのを見るととても嬉しい。MobileNet SSDもなかなかCOOLだぜ。調べてみなよ。」というニュアンスの、押しつけがましい有難いコメントをいただいたため、早速、速度と精度の観点でRaspberryPiでどれほどのパフォーマンスが
YoloV2独自学習データ+Movidius Neural Compute Stick+Raspberry Pi による複数動体検知環境の構築PythonRaspberryPiDeepLearningYOLOv2Movidius I wrote it in English in the comment section. ◆はじめに Intel Movidius Neural Compute Stick + tinyYoloV2 + Raspberry Pi の環境で独自データセットを使用した複数動体検知にトライする。 学習データの生成にあたっては現実的な学習時間に収めるため、リッチなGPUを搭載した端末がRaspberry Piとは別に必須。 参考までに、Xeon + GPU未利用 64バッチ、10,000イテレーションで27日間必要との試算。 ちなみに、Quadro P2000利用 64
I wrote it in English in the comment section. ◆はじめに Intel公式ForumにてIntelのアーキテクトから当記事を取り上げて頂いたようでViewの伸びが凄まじいが、取り上げてもらえるほどクレバーな記事ではない気が… さておき、前回、NCS(Neural Compute Stick) + Raspberry Pi 3 Model B + WebカメラでDeepLearning複数動体検知環境を構築したが、かなり動作スピードが改善したとはいえ、まだまだモッサリ感があってイライラしたため、マルチスティック(Multi Stick)環境をPythonで構築してみた。 NCSは1本¥9,900 もする高価なデバイスのため、良い子のみんなは絶対にマネしないように。 ★【前回記事】環境構築 https://qiita.com/PINTO/items/
このページを最初にブックマークしてみませんか?
『@PINTOのマイページ - Qiita』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く