サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
ドラクエ3
kazuki-room.com
今回はJetsonNanoにROS(Melodic)をインストールし、Jetbotを動かすところまで説明したいと思います。 参考サイト 今回は以下の記事の手順を参考にしています。 ROS nodes and Gazebo model for NVIDIA JetBot with Jetson Nano Jetson NanoにROSをインストールする方法 Jetbot for ROS Rotsonを作ろう! Jetson NanoにROSをセッティングするよ ROS(Melodic)のインストール 何はともあれ、まずはROS(Melodic)のインストールを行っていきます。今回はスクリプトなどを作成せずに一行ずつ丁寧に実行していきます。 ROS(Melodic)のインストール ターミナルで以下のコマンドを実行し、ROS(Melodic)をインストールします。今回バージョンは「Melodic
今回はNVIDIAのJetsonNanoが搭載されているJetBot(AIロボットカー)を購入して実際に動かしてみましたので、それの紹介していきたいと思います。 JetBotキットに関してはすでにいろいろな会社から販売されていますので、デザインや価格などを考慮して購入して試してみるといいと思います。 JetBotとは? JetBotとは、NVIDIA社が販売しているJetson NanoというGPU付きのシングルボードコンピューターが搭載されたオープンソースのロボットのことです。オープンソースなので公開されているサンプルコードでロボットを動かすことはもちろん、自分でプログラムを作って動かすことも可能となっています。特徴としてはGPUが付いていますのでAI(深層学習)との相性もいいところです。Jetson Nanoとキーボード、マウス、ディスプレイなどを接続したら普通のPCのように使用するこ
今回はJetsonNanoでROSを自動起動する方法について説明していきます。 JetsonNanoにROSを入れ、例えばロボットを動かすときなどに毎回ターミナルでROSを起動するのは面倒かと思います。 そこで今回はJetsonNanoの電源を入れたらROSも自動で起動する方法を説明していきます。 ROSCOREのサービスを登録する まずは必要なものをインストールします。 sudo apt install screen 次にホームディレクトリで「.bash_profile」を作成して開きます。 sudo nano .bash_profile 「.bash_profile」が開いたら以下の内容を書き込んで保存します。「.bashrc」は、端末でログインしたときに読み込まれるbashの設定ファイルです。自動起動するときには読み込まれないので「.bash_profile」が読み込まれたら「.ba
今回はJetsonNanoで動画を撮影する方法について紹介していきます。 JetsonNanoで動画を撮影する場合、以下のいずれかのカメラを使用することになると思います。 ①WEBカメラ(USBコードで接続) ②RaspberryPiカメラモジュールを接続して動画を撮影する場合 ②JetbotのJetcamを利用する場合 Jetbotを購入した場合には③のJetcamも利用できると思います。WebカメラとRaspberryPiカメラモジュールは持っていなければ別途購入します。 WEBカメラを接続して動画を撮影する場合 WEBカメラを接続して動画を撮影する場合についてです。JetsonNanoに入れたPythonとOpenCVで動画の撮影を行いたい場合、「VideoCapture」クラスを使用します。 「VideoCapture.py」でファイルを作成し、以下の内容をコピペしてから保存してく
今回はGoogleColab・YOLOv3・darknetの環境でYOLO形式の独自データセットを学習させる手順を紹介していきます。 深層学習で使用されるデータセットの形式は数種類あるようですが、今回はその中でYOLO形式のデータセットを用意して実施していきます。 独自データセットとアノテーションファイルを用意 使用したい画像を収集し、今回の独自データセットとして使用します。画像収集が完了したらアノテーションツールを使用してアノテーションファイルを作成していきます。 今回はペットボトルの画像を30枚用意して管理しやすいように「bottle_0001.jpg」のように全てリネームしておきました。 リネームは以下の記事で紹介したツールを利用します。 WordPressなどのブログの画像を用意するときにファイル名を一括変換する方法 また、今回使用する画像はリサイズして画像の大きさをそろえておきま
Google ColaboratoryというGPUを無料で使えるサービスを使って画像認識させてみたいなと思ったので実際にやってみました。 日本語の情報はまだ少ないようなので少し苦労しましたがなんとかできました。 Colab上で画像認識させてみた結果がこちら。 人もコップも椅子も時計も全て認識してくれています。うん、いい感じです。 Google Colaboratory上の環境はこちらのページの通りに実施したらできました。ありがたやありがたや。今回は「darknet」というフレームワークを使用していますが、「Keras」を使用して動かす方法もあるようです。 ※以下のリンクではCUDA8.0をインストールするとなっていますが、この部分についてはインストールせずに既にインストールされている最新のCUDAをそのまま使用したほうがよさそうです。(2020/1/20追記) GitHub – ivang
3Dプリンターでミニ四駆を作った経緯 今回は3Dプリンターでミニ四駆を作ってみたときのことを書きたいと思います。 昔からミニ四駆が好きだったので、3Dプリンターでミニ四駆が作れたら面白いなと思っていました。 FabCafe主催で3Dプリンタで作られたミニ四駆だけが参加できる大会があることを知りましたので、 是非参加したいと思って応募し個人的に購入していた3Dプリンターを使用してミニ四駆を作成しました。 ❏関連資料・記事 ・Blenderでミニ四駆のモデリングをする【3Dプリンターでも出力可能です】 ・MiniMagicsとBlenderを使用してSTL形式の3Dデータを修正する!【3Dプリンターで出力可能になります!】 ・3Dプリンター活用技術検定試験を受験してきた! 3Dデータを作成するソフトウェアについて 3Dプリンターを使ってミニ四駆をモデリングするにあたり、モデリングに何のソフトを
MiniMagicsとBlenderを使用してSTL形式のデータを修正する 3DCADや3DCGソフトで3Dプリンター用のデータをモデリングをしたあと、実際に出力可能なデータにしていくためにモデリングデータのチェックを行います。ポリコンの面で作成されたデータには面の『向き』が存在しますので、面の表面と裏面の向きが一致するようにデータの向きを修正していきます。 そのとき、モデリングデータのチェックで使用したのが以下のソフトです。 ・MiniMagics・・・3Dプリンターで造形するデータのエラーチェックや寸法・形状確認などに使用する このソフトでSTLファイルを読み込み、データのエラー部分を確認します。 エラー部分が分かったらBlenderに戻り、エラー部分を修正していきます。 今回はその手順を公開したいと思います。 MiniMagicsを起動し、3DCADや3DCGソフトからエクスポートし
このページを最初にブックマークしてみませんか?
『Kazuki Room ~ モノづくりブログ ~』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く