並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 89件

新着順 人気順

gstreamerの検索結果1 - 40 件 / 89件

  • Mac やめて Linux PC を自作した - IT戦記

    みなさまお元気ですか 暑さも少し落ち着いてきて、ようやく外に出てもいいかなという気になってきました。季節の変わり目体調には気をつけていきたいですね。 実は、一ヶ月くらい前に Linux PC を自作して Mac から移行しました。そのときの考え、その後の感想を残しておきます。 また、学んだことや作業のログを細かく残しておきたいと思います。(どこかの誰かが不安に思ったときに同じ失敗や疑問を経験した人がいて安心してもらえたら嬉しい) Ubuntu のインストール画面 (ベストオープンソースと開発しよう!) 目次 Mac をやめるきっかけ、経緯 Ubuntu に移行して一ヶ月の感想 おまけ1: どのような PC になったか おまけ2: 事前に学んだこと おまけ3: PC の組み立て おまけ4: Ubuntu のセットアップ 加筆/修正 指摘のあった誤字を修正 NVEnc について誤った内容があっ

      Mac やめて Linux PC を自作した - IT戦記
    • HDMI入力をRaspberry Piで駆使する

      昨今の衰えることのない技術トレンドに追従すべく、映像配信とかやりたいなーと思っていた2019年。 めっきり時間がなく何もできず、気付けば2020年になっていました。 今年も時間がないだろうなぁと思っていたところ、連日の在宅勤務のおかげで通勤時間がゼロになり、余暇が生まれたので色々やってみることにしました。 お題はHDMI入力で遊ぶ、です。 目次 Open 目次 ビデオ転送プロトコル UVC (USB Video Class) MIPI CSI-2 (MIPI Camera Serial Interface 2) HDMI入力 キャプチャーボード HDMI to MIPI CSI-2 H2C-RPI-B01 HDMI映像入力をみてみる raspivid Gstreamer HDMI映像配信してみる RTMP WebRTC まとめ 参考リンク ビデオ転送プロトコル 早速ですがHDMIから一旦離

        HDMI入力をRaspberry Piで駆使する
      • 時雨堂 WebRTC 入門 (講師資料) v2023-05

        learning-webrtc_2023-05.md 時雨堂 WebRTC 入門 (講師資料) v2023-05 これは時雨堂が開催しているオンラインイベントである WebRTC 入門の 講師用 の資料であり、 参加者用の資料ではありません。 時雨堂 WebRTC 入門 オンラインイベント 概要 ChatGPT がある今、学ぼうと思えば好きなだけ学べる時代がきています。 ただ「正しい情報」をなんとなく知っている事はとても重要だと考えています。 進め方 今回の WebRTC 入門はまず最後まで大まかに話をしていきます。 その後、残り時間を利用して、細かく話をしていきます。 資料表示用の画面と iPad を画面共有してホワイトボード的な使い方をしていきます。 お願い 是非 Discord にメモを残していってください。 後から振り返るとき、参加者の皆に有用だと思います。 ライセンス Creat

          時雨堂 WebRTC 入門 (講師資料) v2023-05
        • スマホでNintendo Switchのゲームをする

          昨今の衰えることのない技術トレンドに追従すべく、映像配信とかやりたいなーと思っていた2019年。 めっきり時間がなく何もできず、気付けば2020年になっていました。今年も時間がないだろうなぁと思っていたところ、連日の在宅勤務のおかげで通勤時間がゼロになり、余暇が生まれたので色々やってみることにしました。お題はHDMI入力で遊ぶ、です。... Mzyy94 Multimedia 09 Apr, 2020 HDMI入力基板を用いてHDMI入力を扱いました。 Raspberry Pi公式のCamera Moduleとして認識してくれるので、何もせずにH.264で入力を扱えて楽でしたが、これはこれで問題を抱えていました。 再接続時に問題があることがこの時点ではわかっていたんですが、もっと使い込んでいくと入力解像度がおかしくなるなど、さらに問題があることがわかりました。 使用したHDMI入力基板はT

            スマホでNintendo Switchのゲームをする
          • ラズパイ+魚眼レンズ+KinesisVideoStreamで低コストの防犯カメラ - Qiita

            前置き/要件 子供が出入りするコワーキングスペースを運営するにあたり、安全のため店内に防犯カメラを設置したい。 店番がいなくなる時間帯が発生するため、撮影データはローカルではなく、クラウド保存にしたい。 ケーブルを這わせるのが面倒なので、有線LANではなく無線LANで。 なるべく低コストで。 参考記事 基本はこちら。ありがとうございます。 https://qiita.com/mksamba/items/86bdd70e7d289073cdc4 ぶっちゃけ、私の記事には、gstreamerの設定とコストくらいしか、追加情報ありません。 使用機材&サービス raspberryPi3 Model B+ 品薄で2019/10/21現在手に入らず。2台設置するので、1台はraspberryPi3 Model Bで構築 最終的にどちらがどちらだっけ? という状況になるくらい、CPU負荷やメモリ負荷は変

              ラズパイ+魚眼レンズ+KinesisVideoStreamで低コストの防犯カメラ - Qiita
            • WebRTC配信技術 "WHIP" で遊ぶ - NTT Communications Engineers' Blog

              はじめに 当ポストは、低遅延配信の技術であるWHIP(WebRTC-HTTP Ingestion Protocol)を自分で動かしてみたい方へ向けた記事となります。 WebRTCを利用した配信映像の集信プロトコルであるWHIPは現在Internet-Draftではありますが、配信技術者やWebRTC技術者の注目を得て、実際に動かせる環境が整ってきました。 当ポストでは、WHIPが動く環境を作り、自前のWebRTCスタックをWHIPで使う簡単な方法を紹介します。 とはいえInternet-Draftということもあり、「WebRTCなら聞いたことあるけど、WHIPって何?配信とWebRTCが関係あるの?」という方も多いと思いますので、最初はWHIPの紹介から入りたいと思います。 WHIPとは WHIPは、WebRTCを利用したインジェストのためのHTTPSベースのシグナリングプロトコルです。

                WebRTC配信技術 "WHIP" で遊ぶ - NTT Communications Engineers' Blog
              • ラズパイ4よりスペック高い NanoPi R6S に Ubuntu 22.04 LTS (Desktop) をインストールする

                この記事は最終更新日から1年以上が経過しています。情報が古くなっている可能性があります。 …おひさしぶりです。 といってもこんなインターネットの場末にあるこのブログを定期購読みたいな形でチェックしている奇特な人間がいるとは思えませんが、記事を書くモチベーションがかなり低下してしまったこともあって、このブログも去年の4月以来まったく記事を書いていませんでした。 さすがに放置しすぎてちょっとまずいだろうとなったのと、WordPress の Gutenberg のアプデ後の書き心地を試したかったのと、ちょうど NanoPi R6S が届いた(!)という記事にするにはいいかんじのイベントがあったので、適当に Ubuntu 22.04 LTS をインストールした方法についてメモしておきます。 NanoPi R6S - FriendlyELEC WiKiwiki.friendlyelec.com …と

                  ラズパイ4よりスペック高い NanoPi R6S に Ubuntu 22.04 LTS (Desktop) をインストールする
                • Amazon Kinesis Video Streams WebRTC を動かしてみた - Qiita

                  はじめに 2019年のre:Inventで、Amazon Kinesis Video Streams (以後KVSと表記) に WebRTCを使ったリアルタイム通信が加わりました。 ブラウザ(JavaScript)向けのSDKだけでなく、組み込み用途のC言語SDKや、iOS/Androidといったモバイルアプリ向けのSDKがあるのが特徴です。 Web用SDK ... https://github.com/awslabs/amazon-kinesis-video-streams-webrtc-sdk-js 組み込みC用SDK ... https://github.com/awslabs/amazon-kinesis-video-streams-webrtc-sdk-c iOS用SDK ... https://github.com/awslabs/amazon-kinesis-video-st

                    Amazon Kinesis Video Streams WebRTC を動かしてみた - Qiita
                  • 第715回 Lenovo ThinkPad X13 Gen2 AMDにUbuntu 22.04 LTSをインストールして使用する | gihyo.jp

                    Ubuntu Weekly Recipe 第715回Lenovo ThinkPad X13 Gen2 AMDにUbuntu 22.04 LTSをインストールして使用する 今回は、新たに購入したLenovo ThinkPad X13 Gen2 AMDに、Ubuntu 22.04 LTSをインストールして使用してみました。使用感やベンチマークを見ていきます。 選定理由 これまで使用していたパナソニック レッツノート CF-SZ6FD3QRは購入から5年以上経過し、ただでさえ少ない8GiBメモリーでは日常的な使用が厳しくなってきました。もちろん故障の心配もあります。 次のノートPCを何にするかは悩ましかったのですが、AMD好きとしてはやはりノートPCでもAMDを使用することを決めて機種選定しました。となるとレッツノートは選択肢から外れることになります。軽量かつ頑丈でUbuntuも素直に動くので、

                      第715回 Lenovo ThinkPad X13 Gen2 AMDにUbuntu 22.04 LTSをインストールして使用する | gihyo.jp
                    • [Amazon SageMaker] イメージ分類のモデルをNeoで最適化して、Jetson Nano+OpenCV+Webカメラで使用してみました | DevelopersIO

                      1 はじめに CX事業本部の平内(SIN)です。 前回、Amazon SageMaker(以下、SageMaker)の物体検出(組み込みアルゴリズム)を、SageMaker Neo(以下、Neo)で最適化して、Jetson Nanoで利用してみました。 今回は、イメージ分類(組み込みアルゴリズム)について、確認してみました。 最初に、動作を確認している様子です。GPUがフルに回っていますが、約0.1秒で推論できています。 2 モデル 使用したモデルは、下記で作成したものです。 17種類の商品を回転台に乗せて動画撮影したデータから、イメージ分類のモデルが作成されています。 3 SageMaker Neo 下記の諸元で、上記のモデルを最適化しています。 ジョブ名: ic-SYOHIN17-jetson-Nano-001(任意です) データ入力値: {"data": [1, 3, 224, 22

                        [Amazon SageMaker] イメージ分類のモデルをNeoで最適化して、Jetson Nano+OpenCV+Webカメラで使用してみました | DevelopersIO
                      • Meet Web Push

                        Websites have many reasons to notify their users of time-sensitive or high-priority events, even if the user does not currently have the site open. This feature is called Web Push, and is enabled by the W3C standards for Push API, Notifications API, and Service Workers, all working together. WebKit now supports the relevant parts of those standards to enable Web Push. Apple has made changes to mac

                          Meet Web Push
                        • AndroidスマホをLinux PCのカメラにする - tmtms のメモ

                          自分の作業机は正面に27インチディスプレイを置いてノートPCはその脇に置いてるんだけど、Zoom とかのオンラインミーティングで顔出しする時にPCのカメラだと斜めからの映像になって良くないなーと思ってて、Webカメラつけるのもいいかと思ったんだけど今品薄だし、そういえばAndroidスマホをPCのカメラにできるというのをどっかで読んだ気がする。 …ということで、テキトーに「linux android webカメラ」とかでググると、ケータイWatchの記事が見つかった。 k-tai.watch.impress.co.jp DroidCam という Android アプリを使えばできるらしい。 試してみたらできたんだけど、 フロントカメラが使えない adb で繋ごうとすると Linux のクライアントアプリが落ちる …ということでやめ。 Google Play で「linux webcam」で

                            AndroidスマホをLinux PCのカメラにする - tmtms のメモ
                          • WebRTCでロボット操縦しようぜ! - 工場長のブログ

                            SORACOM Advent Calendar 2019の12/19の記事です。一年に1回、この時期にだけブログを書いている気がします。 qiita.com もともとは「ぼくのかんがえたさいきょうの再送ロジック」というタイトルで、IoTデバイスとクラウドの間でやりとりされるメッセージの再送ストラテジの話を書こうと思っていました。 例えばデバイス -> クラウド方向に関して言えば、Raspberry Piのような比較的リッチなデバイスであれば、データ送信失敗時や通信がオフラインの時にはプログラム内のバッファやファイルシステム上にデータを保存しておいて、Availableになったらリトライすることが容易ですが、(基板として)ArduinoやWioLTE、M5Stackなどのマイクロコントローラでは、取りうる選択肢が非常に狭くなります。また、そもそもどうやってデータ送信失敗を検知するんだっけ?H

                            • Ubuntu 24.04(noble)の開発・FreeRDPとOpenSSLのバージョンの検討 | gihyo.jp

                              Ubuntu Weekly Topics Ubuntu 24.04(noble)の開発⁠⁠・FreeRDPとOpenSSLのバージョンの検討 noble(Ubuntu 24.04)の開発・FreeRDPとOpenSSLのバージョンの検討 nobleの開発は、ホリデーシーズンが近いことからも、全体的に「来年どのような作業に取りかかるか」の検討が中心に進められています。ひとつ明確な動きとして、FreeRDPのバージョンの選定が行われています。 FreeRDPはWindowsで利用されるリモートデスクトッププロトコルのオープンソース版実装で、現在の事実上の標準ソフトウェアとなっています。UbuntuでもこのFreeRDPを軸としたRDPサポートが構成されています。このFreeRDPは、現在3系の開発が進められています。 FreeRDP 3系はちょうど今BetaやRCが展開されている段階で、「⁠そ

                                Ubuntu 24.04(noble)の開発・FreeRDPとOpenSSLのバージョンの検討 | gihyo.jp
                              • Amazon Rekognition Streaming Video Eventsでリアルタイムに人検知を行う - Taste of Tech Topics

                                この記事は AI/ML on AWS Advent Calendar 2022 12/23、および、アクロクエスト アドベントカレンダー 12/23 の記事です。 qiita.com こんにちは、Acroquest データサイエンスチーム YAMALEX メンバーの駿です。 早いもので2022年もあと一週間と少しになってしまいました。 皆さんは年を越す準備は万端でしょうか? 私が住む社員寮では慌てて年越しそばを買ったり、餅を買ったり、ぎりぎりになってバタバタしています。 さて、今回は 2022年4月に発表された Amazon Rekognition の Streaming Video Events を使って、リアルタイムの人検知を試してみました。 エッジデバイスには Raspberry Pi を使いました。 検出結果の例 1. はじめに (1) Amazon Rekognition とは

                                  Amazon Rekognition Streaming Video Eventsでリアルタイムに人検知を行う - Taste of Tech Topics
                                • 第48回 『らじる★らじる』の聴き逃がしサービス(4) | gihyo.jp

                                  ちょっと前に新年の挨拶をしたばかりと思っていたら、いつの間にか1年の1/4が経過して新年度になり、一気に咲いた桜も散り出してしまいました。 歳のせいか、最近は時の流れがますます早くなってくると共に、残された時間の短さも実感するようになりました。この話題(⁠「⁠らじる★らじる」の聴き逃しサービス)を取りあげるのも4回目となったので、今回で完結するよう少しテンポを早めてまとめることにします。 GStreamerを使った録音 GStreamerの使い方には多少悩んだものの、前回紹介したコマンドラインで聴き逃しサービスの音声データをダウンロードできたので、このコマンドラインを以前紹介したJSONデータを解析するスクリプトに組み込んでみます。今回のスクリプトは音声データもダウンロードするので"get_ondemand.py"という名前にしました。 $ cat -n get_ondemand.py 1

                                    第48回 『らじる★らじる』の聴き逃がしサービス(4) | gihyo.jp
                                  • UAC GadgetでNintendo Switchの音声出力をRaspberry Piに取り込む

                                    UAC GadgetでNintendo Switchの音声出力をRaspberry Piに取り込む Mzyy94 Multimedia 17 Apr, 2020 前回の記事でHDMI映像入力をRaspberry Piで扱う方法を紹介し、その最後に音声の取り込みについて、まだ課題が残っていると書きました。 HDMI入力からの音声取り込みといった、本質的な課題の解決を試みているものの、なかなかに難しい問題に直面しているので、対象を限定して部分的解決に挑みます。 主に今HDMI入力の対象として使おうと思っているデバイスは、Nintendo Switchです。 なので、Nintendo Switchの音声出力に限定して、それをRaspberry Piで取り込むことだけを目的とし、音声が取り込めていない問題を解決していきます。 目次 Open 目次 Nintendo Switchの音声出力 スピーカ

                                      UAC GadgetでNintendo Switchの音声出力をRaspberry Piに取り込む
                                    • 第685回 音楽プレイヤーRhythmboxのさまざまな機能 | gihyo.jp

                                      今回はUbuntuにあらかじめインストールされている音楽プレイヤーであるRhythmboxのさまざまな機能を紹介します。 Rhythmboxとは RhythmboxはUbuntuにあらからじめインストールされている音楽プレイヤーです。本連載では第79回で紹介していますが、なにぶん掲載から12年経っているので、古すぎて参考にならないうえに音楽再生に関する状況もいろいろ変わっていますので、再び取り上げるには遅すぎたくらいでしょう。 Ubuntuの最初のバージョンである4.10からRhythmboxはインストールされていましたが(図1⁠)⁠、Ubuntu 11.04と11.10だけはBansheeにその座を明け渡していました(図2⁠)⁠。なおBansheeは第112回で紹介しています。 図1 Ubuntu 4.10のRhythmbox 図2 Ubuntu 11.04のBanshee。左中央に「U

                                        第685回 音楽プレイヤーRhythmboxのさまざまな機能 | gihyo.jp
                                      • クラウド側からのコマンドで動画が取得できる監視カメラを作ってみました | DevelopersIO

                                        1 はじめに CX事業本部の平内(SIN)です。 Raspberry Piで監視カメラを作成し、クラウド側からコマンドを送ることで、指定した時間の動画が取得できる仕組みを試してみました。 この仕組みの利点としては、以下のようなものが上げられます。 リクエストされたデータだけをmp4形式で送信するので、通信帯域に負荷が少ない 通信帯域に負荷が少ない為、比較的解像度の高い動画が保存可能 動画を取得する時以外は、通信環境が不要 デバイスにディスクを追加することで、長期間の動画保存も可能 最初に、この監視カメラをドライブレコーダーのように使用してみた例です。 「動画を取得する時以外は、通信環境が不要」という特徴を生かして、雑ですが、車のフロントガラスの手前にシガラーターから電源を取って監視カメラとして動作させています。動画は、Wi-Fi環境が利用可能な所で、コマンドを送って取得しています。 2 構

                                          クラウド側からのコマンドで動画が取得できる監視カメラを作ってみました | DevelopersIO
                                        • D3D12 GPU Video acceleration in the Windows Subsystem for Linux now available!

                                          This list is illustrative of a GPU and vendor driver supporting all possible entrypoints/profiles using mesa 22.3. The actual capabilities reported in vaQueryConfigProfiles, vaQueryConfigEntrypoints , vaQueryConfigAttributes, VaQueryVideoProcPipelineCaps and others are dynamically queried from the underlying GPU and might vary between platforms and driver versions. The vainfo utility will list the

                                            D3D12 GPU Video acceleration in the Windows Subsystem for Linux now available!
                                          • DeepstreamでストリームAI処理する方法について | テクのまど

                                            エッジでAIを動作させる仕組みが増えてきました。 AI動作が可能なエッジ機器としてはAI組込済のエッジ機器、RaspberryPi、FPGA、RISC-Vチップなど色々と選択肢があります。但し、現状では深層学習処理をしようとするとパフォーマンスの問題でGPUが前提となるケースがあります。 このケースに限ってはNVIDIA製のエッジ機器であるJetsonシリーズの使用が前提となります。 今回はNVIDIA製のエッジ機器である「Jetson Nano」上でDeepstreamを使ってストリーム処理で物体検出させる手順を記事にしたいと思います。 Jetsonとは何か? Jetsonとは、NVIDIA社が製造・販売するGPUを備えた画像認識、機械学習や自動運転等を想定した組込み用のARMベースのシングルボードコンピュータシリーズです。 特徴としてはCUDAを搭載しているため、CUDAに対応したAI

                                            • DeepStream SDKでリアルタイム動画認識からのLINE通知 - Qiita

                                              DeepStream SDKで高速動画認識からのLINE通知 この記事は,ドコモアドベントカレンダー2019 7日目の記事です。 NTTドコモ サービスイノベーション部の酒井と申します。業務ではDeep Learningを用いた画像認識エンジンの研究開発、サービス化に取り組んでいます。今回は、GPUを使った動画認識高速化ツール「DeepStream SDK」を用いて、動画からの車検出を高速で行うとともに、結果をLINEに通知してみました。AIカメラ的な物を作って、監視カメラで人を検知したり、カメラ映像から違法駐車の検出などを行うなどに使える感じです。 Web上であまり事例の見つけられなかったDeepStream SDKとAMQPを用いたメッセージングにもチャレンジしました。 動機 近年、画像認識技術でのDeep Learning利用が広がるに連れ、動画データの画像認識も徐々に盛り上がって来

                                                DeepStream SDKでリアルタイム動画認識からのLINE通知 - Qiita
                                              • やっぱりWasm は C++!!!~Wasm/EmscriptenでOpenCVを使う~

                                                はじめに質問 Wasm は何で書く?Go? Rust? AssembyScript? やっぱりWasm は C++!!!~Wasm/EmscriptenでOpenCVを使う~ ※現状での個人の見解です。 ということで、Emscripten で OpenCV を扱うことについて記事です。 この記事の元ネタはWebAssembly Night #10の発表内容です。 そしてOpenCV Advent Calendar 2020 の 9 日目でもあります。 画像処理 on your Browserの時代 Wasm といえば最近はすっかり Go や Rust で書くことが盛り上がっていますが、まだまだ C++/Emscripten も活躍しどころがあります。ブラウザでのクライアント画像処理が代表的なものでしょう。 WebRTCインフラの充実 時雨堂 WebRTC SFU Sora/NTT Com.

                                                  やっぱりWasm は C++!!!~Wasm/EmscriptenでOpenCVを使う~
                                                • Jetson-Nanoの使い方 JetPack4.6.1でTensorflowとDeepStream環境構築

                                                  Ubuntu OSイメージの作成 公式サイトからJetPackイメージをダウンロードします。 項目が多くて探しにくいですが、以下の画像のようにJetPack 4.6.1を使用します。 SEARCHの欄に”jetson nano”と入れると候補がしぼられるので探しやすくなります。 ダウンロードしたzipファイルは圧縮ファイルですが、解凍せずに使いますのでそのままにしておいてください。 以下、Macで実施する例を載せていますが、ここで使用するSD Card FormatterとBalena EtcherはWindows用もありますので、同様に実行できます。 SD Card Formatterでフォーマットします。通常、Quick formatで問題ないようですが、うまく行かない場合はOverwrite formatしてください。 Balena EtcherでJetPackイメージをSDカードに

                                                    Jetson-Nanoの使い方 JetPack4.6.1でTensorflowとDeepStream環境構築
                                                  • Ubuntu Core 24の一般提供開始、Ubuntu 23.10のEOL | gihyo.jp

                                                    Ubuntu Weekly Topics Ubuntu Core 24の一般提供開始⁠⁠、Ubuntu 23.10のEOL Ubuntu Core 24の一般提供開始 「通常の」Ubuntu 24.04 LTSに続いて、Ubuntu Core 24がリリースされました(リリースについてのblog記事の日本語版)[1]。Ubuntu Coreは、Ubuntu(と、その中でも特にSnap)を中心にした、IoTやロボティクス、エッジデバイスや組み込みなどの環境に向けたOTA機能を備えた「開発からデプロイまでを同じ環境で行える」OSです。 「開発からデプロイまで同じ環境」というのは、開発環境としてUbuntu Desktopを、そしてターゲットデバイスにUbuntu Coreを利用することで、ワークステーションと組み込みデバイスで同じアプリケーションを走らせることができるという意味で、Ubuntu

                                                      Ubuntu Core 24の一般提供開始、Ubuntu 23.10のEOL | gihyo.jp
                                                    • WebCodecs の VideoDecoder を使用して H.264 の動画を再生してみた - aptpod Tech Blog

                                                      はじめに こんにちは。Visual M2M Data Visualizer Team の白金です。 弊社の製品の intdashでは、H.264形式の動画データを収集/計測できます。計測した動画データは、Fragmented MP4 のフォーマットを使用したライブ動画をストリーミング再生したり、計測した動画を後から確認するためにHLSのフォーマットで再生する機能があります。 今回は、ライブ動画の再生機能を改善するための施策として 先日 Google Chrome の Version 94 でリリースされた WebCodecs の機能に含まれる VideoDecoder を使用して、H.264 のライブ動画をストリーミングで再生を試してみたのでご紹介します。 はじめに WebCodecs とは VideoDecoder を使用することで解決したい課題 課題 1: 欠損時の各動画フレームのタイ

                                                        WebCodecs の VideoDecoder を使用して H.264 の動画を再生してみた - aptpod Tech Blog
                                                      • [Kinesis Video Streams] Raspberry Piでh.264エンコードをする3種類の方法 | DevelopersIO

                                                        1 はじめに Kinesis Video Streamsへ動画を送信する場合、メディア形式は、h.264又は、h.265である必要があります。 このため、GStreamerのパイプライン等、どこかの段階で、エンコードを組み込む必要があります。 今回は、Raspberry Pi で送信する場合に利用可能な、3種類のh.264エンコードについて確認してみました。 2 環境 確認に使用した環境は、Model 4B と Raspberry Piの公式カメラ V2です。 OSは、昨年9月の最新版(Raspbian GNU/Linux 10 (buster) 2019-09-26-raspbian-buster-full.img です。 $ cat /proc/cpuinfo | grep Revision Revision : c03112 $ lsb_release -a No LSB modul

                                                          [Kinesis Video Streams] Raspberry Piでh.264エンコードをする3種類の方法 | DevelopersIO
                                                        • [Amazon SageMaker] DLR(Deep Learning Runtime)の最新バージョン(1.4.0)をJetson Nanoで使用してみました | DevelopersIO

                                                          [Amazon SageMaker] DLR(Deep Learning Runtime)の最新バージョン(1.4.0)をJetson Nanoで使用してみました 1 はじめに CX事業本部の平内(SIN)です。 Jetson nano + Sagemaker Neoでの推論は、今まで色々試しているのですが、最新版では少し要領が変わっている部分もあり、ちょっと手間取ったので、改めて、今回作業した手順を纏めさせて頂きました。 2 JetPack 4.2 Jetpackの最新は4.4となってますが、2020/10/17現在、手元では、ライブラリの依存関係からDLRが動作できなかったため、アーカイブから4.2を使用しました。 https://developer.nvidia.com/jetpack-4_2 3 DLR 1.4 SageMaker Neoでコンパイルされたモデルで推論するためには、

                                                            [Amazon SageMaker] DLR(Deep Learning Runtime)の最新バージョン(1.4.0)をJetson Nanoで使用してみました | DevelopersIO
                                                          • JetsonNanoで動画を撮影する方法 – Kazuki Room ~ モノづくりブログ ~

                                                            今回はJetsonNanoで動画を撮影する方法について紹介していきます。 JetsonNanoで動画を撮影する場合、以下のいずれかのカメラを使用することになると思います。 ①WEBカメラ(USBコードで接続) ②RaspberryPiカメラモジュールを接続して動画を撮影する場合 ②JetbotのJetcamを利用する場合 Jetbotを購入した場合には③のJetcamも利用できると思います。WebカメラとRaspberryPiカメラモジュールは持っていなければ別途購入します。 WEBカメラを接続して動画を撮影する場合 WEBカメラを接続して動画を撮影する場合についてです。JetsonNanoに入れたPythonとOpenCVで動画の撮影を行いたい場合、「VideoCapture」クラスを使用します。 「VideoCapture.py」でファイルを作成し、以下の内容をコピペしてから保存してく

                                                              JetsonNanoで動画を撮影する方法 – Kazuki Room ~ モノづくりブログ ~
                                                            • [AI画像解析アプリ開発に必要な知識] 第1話 NVIDIA DeepStream SDKとは - 半導体事業 - マクニカ

                                                              AI監視カメラを活用した画像解析技術は目まぐるしく進化しており、ビジネスの課題解決に導入される方が増えています。 いざ導入を決定して、自社で画像解析アプリケーションを開発することになれば、開発するための専用ツールを使いこなす必要があります。世の中には画像解析アプリケーション開発に関する情報は点在していますが、役立つ情報がまとめられているものは少なく、またソフトウェアエンジニアにとって全く新しい環境に慣れる必要があり、開発に苦労する方が多いという現状があります。 本記事では、画像解析アプリケーション開発をこれから始められる方や、すでに挑戦して挫折してしまった方に、全5話のシリーズ記事で、開発に必要となる基礎知識についてできる限り難しい言葉を使わずに解説します。 [AI画像解析アプリ開発に必要な知識] 第1話 NVIDIA DeepStream SDKとは 第2話 GStreamerとは 第3

                                                                [AI画像解析アプリ開発に必要な知識] 第1話 NVIDIA DeepStream SDKとは - 半導体事業 - マクニカ
                                                              • Jetson NanoでGPUとOpenCVが有効なYOLOをビルドするには

                                                                このような感じで、Jetson NanoにRaspberry PiカメラモジュールV2やUSBカメラを接続して、YOLOでオブジェクト認識を行えるようです。 手順を記録しておこうと思います。 ※20.6.29追記: YOLOv4に対応する新しい記事を作成しました。 Jetson NanoでYOLOv4を動かしてみました 以下はYOLOv3の記事になります。 リアルタイムオブジェクト検出、YOLOはこちらのサイトになります。 YOLO- Real-Time Object Detection こちらのページに記載された手順でdarknetをビルドしますが。 Jetson NanoでGPU、OpenCVを使用するために、次の設定を行いました。 YOLOビルドオプション変更 GPU有効化 Makefileを書き換えて、GPUを有効にしますが。 vi Makefile GPU=1に変更する他に、NV

                                                                • 赤ちゃんをJetson NanoのエッジAIにも見守ってもらう② -赤ちゃん検知AI-

                                                                  ### ライブラリ読みこみ import cv2 import time import threading import datetime import signal import os from ftplib import FTP from PIL import Image, ImageFont, ImageDraw import scipy.io import scipy.misc import numpy as np import argparse import pandas as pd import tensorflow as tf from keras import backend as K from keras.layers import Input, Lambda, Conv2D from keras.models import load_model, Model from

                                                                    赤ちゃんをJetson NanoのエッジAIにも見守ってもらう② -赤ちゃん検知AI-
                                                                  • 即できる!初めてのJetson nanoでAI入門:DeepStream編 | AI coordinator

                                                                    Jetson nanoはAI入門におすすめ こんにちは。 AI coordinator管理人の清水秀樹です。 コロナが猛威を奮っていますね。 健康には十分気をつけていきましょう。 さて、本日はAI初心者に大変オススメのJetson nanoを使ったAI体験を簡単に実現できる方法をご紹介致します。 Jetson nanoはNvidia社が開発したGPU搭載の小型マイコンになります。 なぜAI初心者にオススメなのかというと、セットアップが滅茶苦茶楽ちんだからです。 通常のPCですといちいちAI開発用にセットアップが必要となりますが、Jetson nanoはもともとAIを活用することを前提に開発したマイコンになっているため、Jetson nano用のOSイメージを活用すればすぐにでもAIを体験できるようになっています。 しかもマイコンそのものは1万ちょっとと金額も安い。 通常のGPU搭載のPCを

                                                                      即できる!初めてのJetson nanoでAI入門:DeepStream編 | AI coordinator
                                                                    • 【2020年版】NVIDIA Jetson Nano、Jetson Xavier NXの便利スクリプト (Jetsonの面倒な初期設定やミドルウェアのインストールを bashスクリプトの実行だけで簡単にできます)

                                                                      ・2020/06/27 【2020年】Jetson Xavier NX 開発者キットが安かったので衝動買いした件、標準販売価格5万円が4万4千円! 【ザビエル元年】Jetson Xavier NX 開発者キットを最安値で購入で、しかも国内在庫で注文から翌日で到着、ザビエル開封レビュー ・2019/03/20 NVIDIA Jetson Nano 開発者キットを買ってみた。メモリ容量 4GB LPDDR4 RAM Jetson Nanoで TensorFlow PyTorch Caffe/Caffe2 Keras MXNet等を GPUパワーで超高速で動かす! ● Jetson Nano、Jetson Xavier NXの便利スクリプト 対応環境 Jetson Nano Jetson Xavier NX 2021/02 JetPack 4.5.1 PR Production Release

                                                                      • AWS IoT 再入門ブログリレー Amazon Kinesis Video Streams編 | DevelopersIO

                                                                        1 はじめに CX事業本部平内(SIN)です。 本企画は、弊社チームIoTメンバーが初心に返ってIoTサービスについて学びなおし、解説してみようというものです。 本エントリーでは、AWSへ動画をライブで簡単かつ安全にストリーミングできる「Amazon Kinesis Video Streams(以下、Kinesis Video Streams)」について紹介します。 Kinesis Video Streamsの主要な機能は、以下のとおりです。 数百万ものデバイスからのストリーミングデータを取り込むために必要な、すべてのインフラストラクチャ扱うマネージドサービス ストリーム内の動画データの耐久性に優れた保存、暗号化、インデックス作成 APIを介したデータへのアクセスが可能 ライブやオンデマンド視聴用の動画再生が可能 コンピュータビジョンと動画分析を活用するアプリケーションを迅速に構築可能 ビ

                                                                          AWS IoT 再入門ブログリレー Amazon Kinesis Video Streams編 | DevelopersIO
                                                                        • [Amazon SageMaker] JumpStartのファインチューニングで作成したResNet18のモデルをSageMaker Neoで最適化して、Jetson NanoのWebカメラで使用してみました | DevelopersIO

                                                                          1 はじめに CX事業本部の平内(SIN)です。 Amazon SageMaker JumpStart(以下、JumpStart)は、TensorFlow Hub や PyTorch Hub に公開されているモデルをGUIで簡単にデプロイして利用できます。 以下は、PyTorch HubのResNet50でファイチューニングしてみた例です。 今回は、上記と同じ要領でResNet18から学習したモデルをSageMaker Neo(以下、Neo)でJetson Nano用に最適化して使用してみました。 前回、同じモデルをPyTorch上で使用した際の処理時間が、0.04sec 〜 0.07sec程度だったのに対し、今回は、0.02secとなっているので、倍以上の速度が出ていることになります。 2 コンパイル JumpStartのファインチューニングで作成されたモデルは、PyTorchのモデルそ

                                                                            [Amazon SageMaker] JumpStartのファインチューニングで作成したResNet18のモデルをSageMaker Neoで最適化して、Jetson NanoのWebカメラで使用してみました | DevelopersIO
                                                                          • 第47回 『らじる★らじる』の聴き逃がしサービス(3) | gihyo.jp

                                                                            前回、聴き逃しサービスの番組へのリンクからJSONデータを取り出し、そこに記されたタイトルや配信元URLを使ってffmpegで番組をダウンロードするためのスクリプトを書いてみました。 このスクリプトでいくつかの番組をダウンロードしてみたところ、スクリプト自体はそれなりに動いて必要な情報を取れてはいるものの、番組のダウンロードはしばしば失敗してしまいます。 $ python ./json_01.py 'p=0308_01_3844917' ffmpeg version 4.3.3 Copyright (c) 2000-2021 the FFmpeg developers ... Input #0, hls, from 'https://vod-stream.nhk.jp/radioondemand/r/308/s/ stream_308_5725b4a0be55d9c3c4d52e4c954

                                                                              第47回 『らじる★らじる』の聴き逃がしサービス(3) | gihyo.jp
                                                                            • DeepstreamでストリームAI処理する方法について

                                                                              2020年1月7日に行われた第4回 Jetsonユーザー会 「Jetson Nano超入門」著者パネルディスカッション+LT大会に登壇させていただきました。 関係者のみなさま、ご参加いただいたみなさま、ありがとうございました。 で、資料をSlideShareにアップしたのですが、基本的には口頭で説明するためのベースとしての資料として作ったものですので、ブログ記事として解説をアップすることにしました。 まず、なんでDeepStreamを紹介しようと思ったかと言いますと、以下3つの理由からです。 何か話してよと言われたのが12月半ばで1か月未満でできることを考えた ちなみに、依頼が来てから慌ててJetson nanoを買いました。 DeepStreamに関して、NVIDIAさんのプレゼンでしか見たことないよという声があった 「Jetson Nano超入門」にはさらっと紹介程度にしか触れられてい

                                                                                DeepstreamでストリームAI処理する方法について
                                                                              • WindowsからワイヤレスヘッドホンでaptX HDやLDAC再生する方法(仮想BTトランスミッター 仮)|だしまき

                                                                                たぶんずっと暫定版。自分用のメモの残骸desu。 他の方法有料のAlternative A2DP Driverを購入して使えば簡単にWindowsでLDAC、aptX HD、SBC(XQ)接続が出来ます。体験版があるので5分位でインストールして再起動して設定して試せます。体験版導入後7日以内?なら6ドルで購入出来ます。 私も購入して使っていますが超おすすめです。この記事の手順は…orz 目的現時点(2022/09)ではWindows11/10でBluetoothワイヤレスオーディオを接続するとSBC/AAC(Win11)/aptXのみでaptX HD/LDACコーデックでの接続が出来ないのでBTトランスミッターを買わずにUSB BluetoothアダプタでなんとかしてLDAC接続やaptX HD接続したい。ついでにSBCの音質向上も。 この様な感じで動作Windows→仮想サウンドデバイス

                                                                                  WindowsからワイヤレスヘッドホンでaptX HDやLDAC再生する方法(仮想BTトランスミッター 仮)|だしまき
                                                                                • NVIDIA Jetson nanoで 4Kカメラは扱えるか? GPU(CUDA)を使った魚眼レンズ補正処理の性能を徹底検証

                                                                                  はじめに 広い範囲を撮影したい場合に利用する魚眼レンズですが、魚眼レンズで撮影した動画は四隅が歪んでしまいます。物体検出や動体検知の精度を上げるためには、この歪みを補正する必要があり、歪み補正の処理のことをキャリブレーション(calibration)と呼びます。 このキャリブレーション処理、動画の各フレームごとに複雑な行列計算をする必要があるので、結構な処理量となります。これを4K動画に行うとなると大変です。「Gstreamerのcameracalibrateを使って、簡単に魚眼レンズの歪み補正を行う方法」や「OpenCV&Pythonで、簡単に魚眼レンズの歪み補正(Calibration)を行う方法」で紹介した、CPUを使った処理では、4K動画に対する30FPSでの処理は困難でした。 そこで、今回はJetson nanoに搭載のGPUを使って、このキャリブレーション処理を行い、Jetso