タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。
Jetson Nanoという小型コンピューターにUbuntu 18.04を入れて、ROS Melodicを入れた。 Jetson NanoはNVIDIAが提供するパワフルな小型コンピューター。そこにUbuntuというOSを入れ、ロボット用のミドルウェアであるROSを入れたのだ。 ●Ubuntu 16.04を入れる手段が見当たらない…… Jetson Nanoを使い始めたのは、Raspberry Piを使うことに限界を感じたからだ。 ノートPC(Let’snote)にUbuntu 16.04とROS Kineticを入れてオリジナルのウェアラブルロボットを動かしていた。 しかし、ノートPCからケーブルが出ているロボットはウェアラブルな感じがしない。そこでSBC(シングルボードコンピュータ)で動かせるようにして、SBCもウェアラブルにしようと考えた。 SBCといえば、でまず使い始めたのがRas
前回は新発売のAIコンピュータボード「NVIDIA JETSON NANO 2GB 開発者キット」(以下、Jetson Nano 2GB)の特徴とレビューを解説しました。今回は「Jetson Nano 2GB」を使って、いま話題になっているNVIDIAのAI認定制度「Jetson AI Specialist」の認定を実際に申請してみて、取得にチャレンジしようと思います。 結果から言いますと、「Jetson Nano 2GB」を使った「マスク判定と検温のAI」のプロジェクトを作成して申請し、「Jetson AI Specialist」の【国内認定第1号】として無事に取得することができました!!それほどハードルは高くないので、申請から認定までの流れをお届けしますので、皆さんも挑戦してみてください! 「Jetson AI Certification」の概要 まずは「Jetson AI Certi
この記事について 深層強化学習を利用してAI RC Carの走行を学習させるソフトウェアをGithub上で公開しています。learnign_racerと命名しました。2020年4月29日の時点でのバージョンはv1.0.0です。この記事ではこのソフトウェアについて紹介していきます。 github.com なお、NVIDIAのJetson Community Projectsのページでも紹介されています。 developer.nvidia.com learning_racerの概要 このソフトウェアは10分から15分程度の学習時間で、コースに沿って走行する方法を獲得することができます。従来のAI RC Carでは人間のお手本操作をDNNに覚えこませる手法が一般的です1。ですが、本手法は教師なし学習の手法である強化学習をベースとしているため、教師データとなる人間のお手本操作は必要ありません。さら
2020年10月5日、NVIDIAからJetsonシリーズの新製品「Jetson Nano 2GB 開発者キット」(以下Jetson Nano 2GB)が発表され、59ドルの価格(日本国内販売はワイヤレスモジュール非同梱の54ドル版)とともに大きな話題になりました。「Jetson Nano 2GB」は、2019年3月に発表された「NVIDIA Jetson Nano 開発者キット」(4GB)と比べてメモリ容量が少なくなった代わりに価格を抑えた廉価版で、主に学生や教育者向けに位置づけられた製品です。 製品の発表のほかに、もうひとつ重要なトピックとして、NVIDIAが認定する「Jetson AI Certification」というAI認定制度がスタートすることも発表になりました。これからAI学習をはじめる人にとっては、まずは目指す目標のひとつとして、ビジネスでAIに関わっている人は修得するスキ
「ロボットのいるくらし」を掲げる株式会社アールティは、AGV・自動運転技術の需要や在宅での研究開発需要の高まりに応えるため、画像処理、機械学習などのAI関連技術とロボット制御技術を同時に学ぶことができる小型二輪移動ロボット「Jetson Nano Mouse」(ジェットソン ナノ マウス)の予約受付を9月1日より開始、9月14日(月)に発売することを発表した。価格は77,000円(税込)。NVIDIA製のAIコンピュータボード「Jetson Nano」が別途必要で「Jetson Nano Mouse」製品には付属しない。 「Jetson Nano Mouse」の特徴 ・アールティの車輪型プラットフォームロボット ・広角カメラ×2を標準搭載 両眼視差を用いた立体視も可能 ・手持ちのJetson Nanoを活用可能 ・ロボット制御用ミドルウェアROS(Robot Operating Syste
この記事でやること この記事ではcolab上で生成したweightsを用いて、Jetsonで走らせるところまでやります。 YOLOのオリジナルモデルの作成方法については過去の記事を参考にしてください。 https://qiita.com/tayutayufk/items/4e5e35822edc5fda60ca https://qiita.com/tayutayufk/items/4dba4087e6f06fec338b Jetson Nanoの用意 前提としてJetsonにはJetCardをインストールしておいてください。 最初にOpenCVのダウンロードから行っていきます。 https://qiita.com/usk81/items/98e54e2463e9d8a11415 このサイトを参考に導入してください。 自分は/home/"ユーザーネーム"/Lib/以下にクローン&ビルドしまし
NVIDIAは、オンラインで開催されたジェンスン・フアン最高経営責任者(CEO)による「GTC2020」の基調講演で、人工知能(AI)初学者向けの開発キットであるJetson Nanoの安価なバージョン「Jetson Nano 2GB」をリリースすることを発表しました。 Jetson Nano 2GB Developer Kit | NVIDIA Developer https://developer.nvidia.com/embedded/jetson-nano-2gb-developer-kit NVIDIA Announces $59 Jetson Nano 2GB, A Single Board Computer With Makers In Mind | Hackaday https://hackaday.com/2020/10/05/nvidia-announces-59-je
1 はじめに CX事業本部の平内(SIN)です。 前回、Amazon SageMaker(以下、SageMaker)の物体検出(組み込みアルゴリズム)を、SageMaker Neo(以下、Neo)で最適化して、Jetson Nanoで利用してみました。 今回は、イメージ分類(組み込みアルゴリズム)について、確認してみました。 最初に、動作を確認している様子です。GPUがフルに回っていますが、約0.1秒で推論できています。 2 モデル 使用したモデルは、下記で作成したものです。 17種類の商品を回転台に乗せて動画撮影したデータから、イメージ分類のモデルが作成されています。 3 SageMaker Neo 下記の諸元で、上記のモデルを最適化しています。 ジョブ名: ic-SYOHIN17-jetson-Nano-001(任意です) データ入力値: {"data": [1, 3, 224, 22
AI・サービスロボットの分野で高度人材育成を手掛ける株式会社アールティは、AI関連技術の教育を推進するためエヌビディア合同会社のパートナー企業(Jetson Education Partner)としてアールティ製のロボットとエヌビディア製のAIコンピューティングプラットフォーム「Jetson Nano」をはじめとするJetsonプラットフォームを掛け合わせた「ロボットエンジニア教育サービス」の提供を開始することを発表した。 Jetson Education Partnerとは Jetsonを活用したAI教育、さらにエヌビディアが行う Jetson AI Certification(認定制度)などを軸にして、教育機関に対して教育プログラムやカリキュラムをカスタマイズして展開していく提携のこと エッジAIが手頃な価格で普及、教育の需要も高まっている 世界中でIoT時代が到来しているなか、従来の
Jetson Nanoに満を持してJetPack 4.4/4.5を入れてみました からあげといいます。半年ほど前に「Jetson Nano超入門」という本を共著で書きました。詳しくは以下ブログ記事参照ください。 共著で書いた本「Jetson Nano超入門」が12/21に発売されます ただ、この手の本の宿命として、書いたタイミングと発売するタイミングで基本ソフト(JetPack)のバージョンが異なり、本の通りにやってもうまく動かないということがありました。一応本やサポートサイトでは、古いバージョンのソフトでの動作を推奨しているのですが、気づかない人も多いし、最新のソフトで動かしたいのが人情というものですよね。 というわけで、ずっと先延ばしにしていたJetPack 4.4を入れて、本に書いてあることを色々試してみました。書籍のサポートという位置付けで記事を書きたいと思います。 追記:JetP
「Jetson Nano」でにゃんこを判別してLチカで知らせるエッジAIデバイスを作る:Jetson Nanoで組み込みAIを試す(5)(1/4 ページ) NVIDIAが価格99ドルをうたって発表した組み込みAIボード「Jetson Nano」。本連載では、技術ライターの大原雄介氏が、Jetson Nanoの立ち上げから、一般的な組み込みAIとしての活用までを含めていろいろと試していく。第5回では、猫とその種類の判別結果をLED点灯(Lチカ)で知らせる機能を作成してみる。 ⇒連載「Jetson Nanoで組み込みAIを試す」バックナンバー Jetson Nanoが優秀な猫判別機として利用できる(?)ことは、前回ご紹介した通りだが、いくら優秀とは言っても、画面にオーバーレイの形で猫の種別が出てくるだけでは他に応用がきかない。エッジデバイスに使うのであれば、その情報を他に受け渡しできないと意味
できたこと AIで人間を認識して、自動追尾するカメラを作りました。 動画がうまく編集できなかったので、静止画で... 立つと... 追いかけ... 座ると... また追いかけ... 常に画面の中心にとらえようと、自動的にパン・チルトを行います。 必要なもの GENBOLT GB102H = ONVIF対応PTカメラ。Amazonで3,600円くらい。 Jetson nano = CUDA対応オンボードコンピュータ。Amazonで16,000円くらい。2GB版だと7,000円弱。 Yolov3-tiny = 物体認識AI ONVIFライブラリとサンプルプログラム = PTZカメラを動かすためのライブラリ VLC = カメラからのRTSP出力を表示します 手順 1. カメラの設定 1-1. カメラに電源とイーサケーブルをつなぐ カメラの取説にしたがって、電源(USB-Micro)とイーサケーブ
こんにちは、ソリューションアーキテクトの渡邉です。上の娘が今年から高校生になり、日々の成長に喜びを感じる一方で徐々に顔を合わせる時間も少なくなってきていることに危機感を感じ始めてきている今日此の頃です。下の娘はまだ私とじゃれ合ってくれますが上の娘のようになっていくのも時間の問題です。 そこで今回は一家団欒の時間を IT の技術を使ってなんとか解決していきたいなと思います。具体的には部屋の利用人数をカウントして規定人数以上であった場合に通知を上げるという仕組みを作ることで私以外の家族がそろったタイミングを素早く察知していきたいと思います。エッジデバイスとしてはお手軽に機械学習を始めることができる Jetson Nano 開発者キットを使って作ってみることにしました。また、機械学習推論を行う上で重要なパーツとなる機械学習モデルに関しても事前学習済みモデルを使うことでお手軽にシステムを作成したい
Jetson NanoでPose Estimation Jetson Nanoで骨格検出の技術を動かしてみます。「tf-pose-estimation」というソフトを使うと単眼カメラで人間の骨格検出をすることができます。詳しくは以下ブログ記事を参照下さい。 単眼カメラでKinectのように骨格検出する技術「Realtime Multi-Person Pose Estimation」を試してみた Jetson Nanoで「tf-pose-estimation」のセットアップ ほとんど以下の記事を参考にさせていただきました。おかげで詰まることなくセットアップできたので、本当に感謝です。 Jetson Nano に TensorFlow版のOpenpose入れてみる そのままだと付加価値がないので、上記のセットアップをコマンド一発で実行できるようにスクリプトにした上で、Raspberry Piカ
Jetson nano Jetsonは、GPUで有名なNvidiaから発売されている、GPUを搭載しているシングルボードコンピュータです。 2020/02/14に発売された最新のB01 Jetson nanoを今回は利用します。 Amazonで本体だけで13,000円程度でした。 Jetson nanoはRaspberry Piとよく比較されますが、Jetson nanoはGPUが搭載されているので機械学習や画像認識などで強みがありそうです。 Jetson nanoと電源アダプタ(5V)とSDカードを購入しました。 SDカードは大容量で安いものもありますが、速度に影響が出るので、少し高くてもある程度有名どころをかっておくのがおすすめです。 あと、大きすぎるとまるっとバックアップする際に大変で、小さすぎるとOSだけでいっぱいいっぱいになってしまうのでJetson nanoの場合64GBくらい
Ubuntu OSイメージの作成 公式サイトからJetPackイメージをダウンロードします。 項目が多くて探しにくいですが、以下の画像のようにJetPack 4.6.1を使用します。 SEARCHの欄に”jetson nano”と入れると候補がしぼられるので探しやすくなります。 ダウンロードしたzipファイルは圧縮ファイルですが、解凍せずに使いますのでそのままにしておいてください。 以下、Macで実施する例を載せていますが、ここで使用するSD Card FormatterとBalena EtcherはWindows用もありますので、同様に実行できます。 SD Card Formatterでフォーマットします。通常、Quick formatで問題ないようですが、うまく行かない場合はOverwrite formatしてください。 Balena EtcherでJetPackイメージをSDカードに
どうも、たけとけたです。 こんなものを見つけてしまいました。 タミヤMidnight PUMPKINをJetRacerにしてAI自動運転(その1) https://t.co/z7ZZpQCfTq #Qiita— たけとけた@2児の父親で製造技術 (@jastaway03) 2020年4月28日 これはラジコンにjetson nanoを積み、機械学習させることで自動運転させてます。 (下記は参考動画) www.youtube.com ・・・アニメの世界じゃん! ・・・レッツ&ゴー!WGP編じゃん!!! www.youtube.com やってることがGPチップそのものじゃん!と僕の中の厨二心が爆発してます! ※WGP編ではミニ四駆にGPチップを取り付けることで、レースの走り方・セッティングや所有者の癖などをミニ四駆が覚えて成長するというまさにAIシステムです。ドイツ代表のベルクカイザーが好きで
※これはセミナー聴講時の個人的なノートをそのまま公開したものです。誤字誤植や勘違いがある可能性があるのでご了承ください。 第4回 Jetsonユーザー会 「Jetson Nano超入門」著者パネルディスカッション+LT大会 - connpass に参加しました。 19:40 NVIDIA社から ディープラーニングおよび AI のトレーニング、クラス、ワークショップ - NVIDIA 世界最小の AI スーパーコンピューター「Jetson Xavier NX」の登場 | NVIDIA NVIDIA Jetson が提供する組込みシステムの開発者キットとモジュール 19:50 発表開始 (30分)パネルディスカッション : Jetson Nano 超入門 Jetsonで何をさせたらおもしろい? メディアプレイヤー 物体検出は多いが、3Dをグリグリ動かすアプリケーション 画像のディープラーニン
1. 概要 NVIDIA が提供するプロファイリングツール Nsight を使って、Jetson Nano で動作するアプリの性能ボトルネックを見つける方法をまとめます。 今回私が Nsight を使おうと思ったきっかけは、前回記事 でもネチネチと作業したように、 TensorFlow Lite GPU Delegate (OpenGLESバックエンド) を使ったアプリを少しでも速くしたかったからです。 ですので、下記のような Posenet による姿勢推測処理負荷の高いアプリを観測対象とします。 なお、観測対象アプリのソースコードは下記にあります: https://github.com/terryky/tflite_gles_app/tree/master/gl2posenet 2. Nsight について 2.1 Nsight 3兄弟 公式ページ にある通り、2019/12月時点におい
[Amazon SageMaker] DLR(Deep Learning Runtime)の最新バージョン(1.4.0)をJetson Nanoで使用してみました 1 はじめに CX事業本部の平内(SIN)です。 Jetson nano + Sagemaker Neoでの推論は、今まで色々試しているのですが、最新版では少し要領が変わっている部分もあり、ちょっと手間取ったので、改めて、今回作業した手順を纏めさせて頂きました。 2 JetPack 4.2 Jetpackの最新は4.4となってますが、2020/10/17現在、手元では、ライブラリの依存関係からDLRが動作できなかったため、アーカイブから4.2を使用しました。 https://developer.nvidia.com/jetpack-4_2 3 DLR 1.4 SageMaker Neoでコンパイルされたモデルで推論するためには、
2020年8月、AIソフトウェア/ソリューション開発を手掛けるスタートアップのエクサウィザーズが高性能2眼レンズ搭載のAIカメラ「ミルキューブ」を発売した。特徴の1つはそのデザイン性にある。現在市場に多く出回るAIカメラの多くは、一目見れば「カメラ」だと周囲に伝わりやすいフォルムとなっている。これに対してカラーリングを施した立方体形状のミルキューブは、カメラというより、まるで小型スピーカーなど家電製品のようなデザインに仕上がっている。 だが、“インテリア感”を前面に押し出した見た目を裏切るかのように、処理性能は高い。GPUとしてNVIDIAの組み込みAIコンピュータ「Jetson Nano」を筐体に内蔵しており、工場現場の不良品検知や物流支援などの用途にも十分適用できる。AIカメラを開発するためにJetson Nanoを活用する事例は多数あるが、Jetson Nanoそのものを最終製品に組
NVIDIAのJetson Nano (2GB)買ってみました。 10センチ×8センチの筐体に128コアGPUと4コアCPUを搭載していて、豊富なインタフェースを備えた、小さくてパワフルなコンピュータボードです。しかも、2GB版だと7000円台で購入できます。 これまで組み込み用途の小型コンピュータボードとしては用途でRaspberryPiが有力でしたが、JetsonNanoだとGPUが強力なので、ビデオや静止画の加工やAIを使った認識処理を備えたデバイスを作るには現時点では最適なボードだと思います。 128コアGPUがどれぐらい動いてるのかが気になったので、まずは測定環境を揃えました。 目次 目次 jtop(jetson_stats)のインストール jtopの起動 Youtube再生中のシステム状態 jtopの機能と画面表示の例 システム全体状態 GPU状態 CPU状態 メモリーの状態
Jetson NanoにニューラルネットワークのフレームワークであるDarknetをインストールして、物体検出モデルのYOLOv3が動作する環境を構築しました。 YOLOv3とTiny YOLOv3による物体検出結果 下の画像は、構築した環境のYOLOv3とTiny YOLOv3を用いて、GitHub – udacity/CarND-Vehicle-Detection: Vehicle Detection Projectのテスト画像を物体検出した結果です。 環境構築 Darknet Darknetは、ニューラルネットワークのフレームワークです。詳細は、Darknet: Open Source Neural Networks in Cをご覧ください。ソースが、GitHub – pjreddie/darknet: Convolutional Neural Networksで公開されています。
菱洋エレクトロ株式会社はAIコンピューティングの世界的リーダーであるNVIDIAが2月24日(アメリカ時間)に発表した新製品「NVIDIA Jetson TX2 NX モジュール」の販売を開始することを発表した。価格はオープン。モジュールのみの販売で、開発者キットの販売はない。 Jetson TX2の性能をJetson Nanoのサイズで実現 「NVIDIA Jetson TX2 NX モジュール」はAI(人工知能)、特にエッジ側で行われるディープラーニング(深層学習)やGPUコンピューティングにおいて、多くの企業や教育機関の研究者、開発者に利用されている組込み用コンピューター「NVIDIA Jetson」プラットフォームの新製品。ロボット、自動搬送車、ドローン、セキュリティカメラ等に搭載されてきた。 既存製品である「NVIDIA Jetson TX2」のパフォーマンスを「NVIDIA J
はじめに いつもJotson関連の情報でお世話になっているからあげさんがJetsonNanoの本を書いたので、いつものように真似してみるよ。 (注意!JetPackは4.2.2を使ってね) Jetson Nano本のサポートページ 教材のレベルも高い MIDIや3Dカメラをつかうページでは、D435やポケミクが必要だったりで、さすが超入門。 どこのご家庭にも必ずあるJetsonNanoと違って、デバイス側の在庫がある人は少ないはず・・・だけど、Twitter見てるとみんな持っているから不思議。 ちなみに私のはD435じゃなくてD435iだからセーフ(謎) JetPack 4.3 本が届く前にJetPack4.3がリリースされて、OpenCV4.1がプリインストールされた。 これで長々とビルドする必要がなくなった! (注意!JetPack4.3だとSLAMが動かせなかったので、現状ではJet
S-Techno Factoryの画像認識AIロボット「Arm-I」の実地試験を行いました。 自車近くの栗を拾い終えると自動でゆっくり前進し拾い続けます。 今回はAI認識とパラレルリンクの作動、自動前進の確認を行いました。 今後は実際の運用方法(運用時間、収穫箱の大きさ、集荷方法 等)を含めた総合的な活用方法を検討したいと思います。 パラレルリンク作動範囲(X:1000mm、Y:1000mm、Z:300mm) 車両の大きさや、収穫箱のサイズ、バッテリサイズは運用時間、圃場の大きさににより変更可能です。 また学習データを他の作物に変えることで他の作物の収穫や それ以外の作業(ピンポイント農薬散布など)も可能です。 お問合せ:S-Techno Factory (info@s-techno-factory.com) 技術協力:アトラックラボ、STEP BY STEP 場所提供:丹波農園
###Jetson NanoでYoloをすぐ利用する Jetson Download Center でSD Card Imageをダウンロードする この5GバイトのISOファイルの中にCudaやOpenCv、TensorRTが既にインストールされおり、開発環境を整えずにOSをインストールすればすぐに利用することができます。(パスは設定する必要あり) インストールされているソフトの中身はここから見ることができます JetPack TensorRT cuDNN CUDA Multimedia API Developer Tools 他 DeepStrem SDK ###Cudaのパスを設定する # vimをインストール sudo apt install vim $ sudo vim ~/.bashrc export PATH=/usr/local/cuda/bin:${PATH} export
1 はじめに CX事業本部の平内(SIN)です。 Jetson開発ボードでは、GPIOが利用可能で、RaspberryPiとピン互換になっています。 https://www.jetsonhacks.com/nvidia-jetson-tx2-j21-header-pinout/ 今回は、こちらを利用して、Jetson Nanoで超音波距離センサー(HC-SR04)を使用してみました。 2 Jetson.GPIO Jetson NanoでGPIOを扱うために、Jetson.GPIOというモジュールが公式に公開されています。 https://github.com/NVIDIA/jetson-gpio $ pip3 install Jetson.GPIO なお、デフォルトでは、一般ユーザーからGPIOにアクセスする権限が無いため、ユーザー(nvidia)にそれを付与します。 $ python3
はじめに aloha! 先月くらいにNVIDIAのJetson Nano(B001)を入手し、いろいろ試しています。物体認識なんか、macのCPUと比較にならないくらいとても早くて驚きです。さすがGPU(CUDAコア128基)マシン。 うちにはディスプレイがなく、リビングの液晶テレビのHDMI端子に繋いでいたのですが、大きすぎてみにくいのと使える時間が限られているのでどうにかならないものかと試行錯誤。 最初は、画面共有をするためにVNCを入れたり、RDPを設定したりと。 ただ、カメラを使った画像系の表示がHDMI経由でないとできないようなので困っていました。そこで、仕方なくハードウェアを投入。 HDMI出力をMacへ入力するには HDMI Video Captureデバイスをを使いました。ゲームプレイ動画を配信する人が使うものらしいです。今回は、Amazonで販売されていたZasLuke
全242回のめざましじゃんけん結果取得を通じて一番のテーマは、信頼性の向上です。 「全部の回次を正しく結果取得」 1回1回の信頼性向上・・・まだ、道半ば。誤判定をなくす、(運用コストが低く)信頼性の高いH/Wの導入。そして、H/Wの冗長化 イレギュラー開催などへの対応・・・見えていない部分もありますが、ダブルポイントなどへの対応、年末年始など、個別開催時間への対応など 信頼性を向上するうえで、システムの構成予想削減(よりシンプルに)、より高信頼なハードウェアで。 最近ホットな出来事は、USBカメラの画像が悪い時(太陽の高さなど、テレビの設置環境に依存)の画像検出率低下、さらには誤判定。 これらを回避する途中に、エッジコンピューティングでの画像検出エンジンの高速化が実現しました。 (高速化や信頼性を主テーマとすると、他の方式もありますが、あくまで気になる分野や楽しそうな技術の採用を優先させて
日本時間の10月5日(月)22:00、NVIDIAの創業者 兼 CEOのジェンスン フアン氏の基調講演によって、秋の「GTC 2020」が幕を開けた。 「GTC 2020」はコロナ禍によってリアルのイベントが中止となり、5月にオンラインで開催された。その時はフアン氏の基調講演は日本語字幕版の動画も公開された。今回はそれに続く2回目の「GTC 2020」となる。基調講演の中では、新しい「Jetson Nano 2GB」が発表された。 学生/教育者、ホビー向けの「Jetson nano 2GB」発表 今回も「GTC 2020」の基調講演はジェンスン フアン氏のキッチンであらかじめ収録された動画だった。全9章で構成されているが、ロボスタ読者が最も注目している内容に触れているのが第8章「Everything that Moves will be Autonomous」だろう。NVIDIA Jets
### ライブラリ読みこみ import cv2 import time import threading import datetime import signal import os from ftplib import FTP from PIL import Image, ImageFont, ImageDraw import scipy.io import scipy.misc import numpy as np import argparse import pandas as pd import tensorflow as tf from keras import backend as K from keras.layers import Input, Lambda, Conv2D from keras.models import load_model, Model from
11月4日着の荷物がヤマト宅急便から届きました。 宅急便お届け予定メールに、依頼主:RE物流センターとあって、誰や!と思ったのですが・・・ Jetson Nano 2GB DevKit!! キミかー! さっそく開封しました。 箱は小さいです(つい最近、仕事で Jetson Xavier NX の箱を開梱したばかりなのでそう感じただけかも) Jetson Nano 2GB 開発者キット。 私は、菱洋エレクトロの通販で購入しました。 ryoyo-gpu.jp 他の通販と比べて一番安いのと、送料も無料です。 送料・税込み6820円! 購入理由を書く欄がありますが、趣味のプログラミングとでも書いておけばOKです。 クレカ決済限定ですが、下手にいろんなところでクレカを使いたくないという方は、ファミマでプリペイドVisaカードの「バニラVisa」を7000円分買って、それで決済できます。 もう終わっち
NVIDIAは超小型のAIコンピュータボード「Jetson Nano」によるリアルタイム分析を店舗に導入する事例として、Mercedes-Benz Consulting(以下、メルセデス)がModcamの店舗分析を使用して販売店のレイアウトを最適化したユースケースを発表した。 メルセデスはドイツのシュトゥットガルトにある本社近くのコンセプトストア(店舗)にて、さまざまなフロアレイアウトやタッチスクリーンによるプロモーション、商品情報を表示するサイネージなどをテストしている。この店舗にModcamのエッジAIシステムを導入することで、メルセデスはレイアウトやキャンペーンの効果測定を行い、どのモデルにどれくらいの人が流れ、また異なる店舗構成に対して顧客がどのように反応するかを判断できるようになる。 Modcamと連携して次世代の自動車販売体験を加速 スウェーデンに拠点を置くAIスタートアップの
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く