サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
大谷翔平
ai-coordinator.jp
Let’s play with AI. こんにちは。 AI coordinator管理人の清水秀樹です。 皆さま、自作してますか? 私は色々なガラクタを日々生み出しています。 いずれ役に立つ日が来ることを信じて・・・・ 物体追跡カメラを作ってみた。 こんなやつです。 いきなりソースコード 速くソースコード見せろって方はgithubにありますので使ってください。 一応補足しますと、公式サイトにサーボドライバーHATのセットアップ方法がありますので、そちらをまず試しましょう。 サンプルソースコードでウニョウニョ動けばOKです。 あとはラズパイにOpenCVをインストールするだけです。 これで準備完了。 tracking_camera.pyを起動すれば、カラーボール(赤)を追跡するカメラの出来上がり。 一応ソースコード載せときます。 import cv2 import numpy as np i
Jetson nanoはAI入門におすすめ こんにちは。 AI coordinator管理人の清水秀樹です。 コロナが猛威を奮っていますね。 健康には十分気をつけていきましょう。 さて、本日はAI初心者に大変オススメのJetson nanoを使ったAI体験を簡単に実現できる方法をご紹介致します。 Jetson nanoはNvidia社が開発したGPU搭載の小型マイコンになります。 なぜAI初心者にオススメなのかというと、セットアップが滅茶苦茶楽ちんだからです。 通常のPCですといちいちAI開発用にセットアップが必要となりますが、Jetson nanoはもともとAIを活用することを前提に開発したマイコンになっているため、Jetson nano用のOSイメージを活用すればすぐにでもAIを体験できるようになっています。 しかもマイコンそのものは1万ちょっとと金額も安い。 通常のGPU搭載のPCを
こんにちは。 AI coordinatorの清水秀樹です。 リアルタイム映像からの物体検出に挑戦してみました。 ただし簡単にはできず、色々ハマってえらく苦労したので、同じ悩みを持っている人の助けになればと思い実装までの手順を記事にします。 この手順に則って環境準備から始めて頂ければ、素人でも自分のPC場で映像からの物体検出が実装できるようになります。 それでは始めてみましょう。 参考にさせて頂いたサイト 以下のサイトを参考にさせて頂きました。 SSD: Single Shot MultiBox Detector 高速リアルタイム物体検出デモをKerasで試す こちらのサイトは素人の筆者でもなんとか実装できるぐらいまで丁寧に説明してくださっていますので、リアルタイムからの物体検出を実行する上で、大変参考になりました。 また、これからDeep Learningの勉強をするなら、こちらで紹介する
正確さと高速化に成功したYOLO V3 こんにちは。 AI coordinator管理人の清水秀樹です。 最近はラズパイにハマってdeeplearningの勉強をサボっておりましたが、YOLO V2をさらに高速化させたYOLO V3がリリースされたようなので、早速試してみました。 しかもより正確になったようです。 開発環境 imac2012 27-inch macOS High Sierra Python 3.5.2 PyTorch Anaconda使用 GPUは使用しない 公式サイトからのダウロード YOLO V3を使うだけならすぐにできます。 公式サイトを参考に以下の通りにコマンドラインをただ入力するだけ試すことができます。 $ git clone https://github.com/pjreddie/darknet $ cd darknet $ make $ wget https:
物体検出をラズパイでも試してみよう こんにちは。 AI coordinatorの清水秀樹です。 Ai coordinator独自のロボットを開発する上で、欠かすことのできない物体検出技術。 ロボットの視覚の機能に当たる部分ですね。 当記事は、ラズパイでも物体検出が... Movidiusはintelが開発したUSB型のDeepLearning用開発ツールです。 「モビディウス」と読むようです。 当記事は、ラズパイ上でMovidiusを使ったリアルタイム画像認識ができるところまでを紹介します。 Movidiusは安価でラズパイの高速化が可能になるDeepLearningツールなので、興味がある方は是非チャレンジしてみて下さい。 Movidiusをインストールする前の注意点として、microSDカードの容量は32GB以上にしましょう。 16GBでは領域が足らずにインストールできません。 しかも
2018Mar18 物体検出 iphoneで物体検出!TinyYOLO-CoreMLを誰でも使える方法を紹介 こんにちは。 AI coordinatorの清水秀樹です。 久しぶりの物体検出ネタになります。 先日以下の記事を発見しました。 スゲ〜〜!! iphoneでもYOLOが使えて、しかも速い!!! なんてこった! PCでカクカク(GPU無し・・・)だったYOLOがiphoneだとこれだけの速度が出るなんて。 しかもなんかカッコ良い! というわけで、早速チャレンジしてみました。 X-CODEの使い方が分からなくても大丈夫 上記サイトによるとTinyYOLO-CoreMLはX-CODEでビルドするだけで使えますとのこと。 ・・・・ そう! X-CODEから実機にアプリを送り込んで使えるようにする必要があります。 まじかよ!! X-CODEなんて使えません。 以前、書籍を買ってチャレンジして
こんにちは。 AI coordinatorの清水秀樹です。 現時点でおそらく最新最強の物体検出であるMask R-CNNを簡単に試せる方法を紹介します。 難しい論文なんぞ読まなくても、ここで紹介している手順通りに実行するだけでMask R-CNNを動かすことができるようになります。 Mask R-CNNの仕組みについては他のサイトに任せるとして、ここでは一切触れていません。 単純に動かすことだけに特化した記事となります。 また、すでに公開済みのGitHubからただ動かすだけでは面白くないので、webカメラからでも動くようにカスタマイズしたソースコードも合わせて紹介します。 興味がある方は試してみてください。 成功すれば以下の画像のように、物体の輪郭にそった物体検出ができるようになります。 いよいよ映画のターミネーターばりの画像処理が現実的になってきました。 開発環境 なんでもそうですが、こ
自然言語処理の入門、wikipedia全文データを使ってみる こんにちは。 AI coordinatorの清水秀樹です。 自然言語処理について何から勉強を始めようかと色々模索していたところ、wikipediaの日本語全文データをダウンロードできることを知り、早速それが使えそうなところから初めてみることにしました。 なんでもWord2Vecとかいうライブラリーを使用すると、単語の意味をベクトルで表現できるらしく、関連する単語や類似度を調べることができるようになるとのこと。 ちょうどデータ量として申し分ないwikipedia日本語全文データも使えることも分かったので、早速それらを組み合わせて勉強してみることにしました。 当記事はその内容の紹介になります。 純粋 – 正義 + 悪 = 邪悪 みたいなことができるようになります。 興味がある方は参考にしてみてください。 開発環境 macOS Sie
YOLO v2にVGG16を組み合わせて使用してみよう こんにちは。 AI coordinatorの清水秀樹です。 ある日、閃きました。 YOLO v2の物体検出の精度に、VGG16の画像認識を組み合わせて使用してみたら最強の物体検出ツールが出来上がるのではないかと・・・。 80クラスのクラス分けができるYOLO v2に対し、VGG16は1000種類もの画像認識が可能となっているので、これらを組み合わせれば、より詳細なクラス名を表示できる物体検出機能になると単純に思った訳です。 そんな訳で、早速試してみました。 下記動画ではわかりにくいのですが、クラス表示は上段にYOLO v2のクラス名を表示し、下段にVGG16のクラス名を表示しています。 開発環境 macOS Sierra Anaconda3-4.2.0-MacOSX-x86_64 python 3.5.2 opencv3 3.1.0
YOLO v2をどうしてもPythonで使ってみたかったので作ってみた こんにちは。 AI coordinatorの清水秀樹です。 数多くあるオブジェクト物体検出の中で、処理速度が最も早い?と言われているYOLO v2を試してみました。 公式サイトの通りやって、環境のセットアップと静止画のオブジェクト物体検出を描画できるところまでは簡単にできましたが、なぜか動画になるとエラーになってしまいました。 そんなわけで、公式サイトのやり方ではイマイチ不良消化のまま先に進めなくなってしまったので、少し思考を変え、静止画でオブジェクト物体検出ができるなら、Pythonでソースコードを組み直せば、リアルタイム映像でもYOLOを試せると考え、実際にPythonで動かせるように作成してみました。 中々苦労しましたが、なんとか実装できたので、その内容を紹介したいと思います。 参考にさせて頂いたサイトの紹介 ち
Anacondaのアンインストールメモ こんにちは。 AI coordinatorの清水秀樹です。 macOSにインストールしたAnacondaのアンインストールに手こずったので、忘れないようにするためのメモとして記録しておきます。 参考になれば幸いです。 環境は、 macOS Sierra Anaconda 4.3.1 GRAPHICAL です。 アンイストール用のツールをターミナルよりインストール ANACONDA DOCUMENTATIONより、以下のツールをターミナルからインストールします。 $ conda install anaconda-clean yes/noを聞かれるのでyesでインストールしましょう。 インストールが完了したら早速起動します。 $ anaconda-clean 色々なツールを削除するか問われるので、迷わず全てyesを入力。 ターミナルからの作業は以上です
OpenCVを使った顔抽出 こんにちは。 AI coordinatorの清水秀樹です。 前回の記事で、OpenCVを使った顔認識を紹介しました。 今回は大量の画像から顔の部分だけをトリミングして保存する方法を紹介します。 機械学習用画像の準備としても使えると思いますので、ぜひ参考にしてみてください。 テスト環境 macOS Sierra Anaconda3-4.2.0-MacOSX-x86_64 python 3.5.2 opencv3 3.1.0 まずは1枚でチャレンジ import cv2 import matplotlib.pyplot as plt import numpy as np from PIL import Image %matplotlib inline #入力ファイルのパスを指定 in_jpg = "./photo/1.jpg" out_jpg = "./photo_
OpenCVを使った物体検出 こんにちは。 AI coordinatorの清水秀樹です。 映像からただ単に物体検出を試してみたいだけなら、すぐにでも試せる方法を紹介します。 SSD_kerasを使った物体検出は環境準備が大変であるのに対して、OpenCVインストール時に初めから準備されているカスケードファイルを使えば、すぐにでも物体検出が始められます。 手軽に始めてみたい方は、ぜひ当記事を参考にしてください。 テスト環境 macOS Sierra Anaconda3-4.2.0-MacOSX-x86_64 opencv3 3.1.0 物体検出を試してみる まず手始めに、胴体を検出できるカスケードファイル(haarcascades/haarcascade_fullbody.xml)を使用して試してみます。 成功するとこんな感じで動画が見れるはずです。 # -*- coding: UTF-8
こんにちは。 AI coordinatorの清水秀樹です。 サンプルソースコードのSSD_kerasを使ってリアルタイム映像からの物体検出ができるようになると、自分で学習させたモデルで物体検出をやりたくなります。 そこでどうやったら学習モデルが作成できるのかネットサーフィンをしていたら、データ準備がとても大変かつ難易度が高いことを知りました。 中ば途方に暮れていたところ、実際に自分で準備した画像を画像データ準備用のツールを開発することで、独自の学習モデルを作成していたサイトを見つけました。 そのサイトを参考に、筆者でもその方法で試してみたところ、色々苦労しながらも無事に物体検出をすることができましたので、個人的な備忘録の意味も兼ねて、その内容の紹介をしたいと思います。 できるだけ分かりやすく説明していますので、挑戦してみたい方は当記事を参考に学習モデルを作成してみてください。 参考にさせて
このページを最初にブックマークしてみませんか?
『AI coordinator』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く