タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。
1. 背景 Google Chrome での動画再生のカラーマネジメントに関する調査をしたい 検証用のテストパターンとして「MP4 コンテナに収納した H.264 の動画」を使用する予定である しかし筆者は MP4 コンテナに収納された H.264 ファイルの色情報(※1)がどこに保存されるのか理解していなかった そのため動画ファイルの色情報の保存場所について調査を行うことにした ※1 本記事において色情報は以下の3つの情報を意味する。 Color primaries Transfer characteristics Matrix coefficients 2. 目的 MP4 コンテナに収納された H.264 ファイルの色情報がどこに保存されるか調べる 3. 結論 MP4 コンテナに収納された H.264 ファイルの色情報は以下の2箇所に保存される。 (a) MP4 コンテナの 'moov
はじめに こんにちは。Visual M2M Data Visualizer Team の白金です。 弊社の製品の intdashでは、H.264形式の動画データを収集/計測できます。計測した動画データは、Fragmented MP4 のフォーマットを使用したライブ動画をストリーミング再生したり、計測した動画を後から確認するためにHLSのフォーマットで再生する機能があります。 今回は、ライブ動画の再生機能を改善するための施策として 先日 Google Chrome の Version 94 でリリースされた WebCodecs の機能に含まれる VideoDecoder を使用して、H.264 のライブ動画をストリーミングで再生を試してみたのでご紹介します。 はじめに WebCodecs とは VideoDecoder を使用することで解決したい課題 課題 1: 欠損時の各動画フレームのタイ
前回の記事で録画サーバを構築、MPEG-2 TS で保存できるようになった。 kumak1.hatenablog.com ということで今回は、Raspberry Pi 4 のエンコードの実力をみていく。 エンコード動作時 ffmpeg -i src.m2ts -vcodec h264_omx desc.mp4 上記コマンドで雑に mp4 へ変換してみる。オプションで -vcodec h264_omx を指定しハードウェアエンコーディングすることで、CPU利用率 140% (4core なので max 400%)で速度は 1.47x を叩き出しているし、熱もファンを動かしているので 53°C と余裕だ。-b:v 8000k オプションでビットレートを指定することで、画質を変更できる。 これは私がメインで利用している MacBook Pro (15-inch, 2016) の CPU エンコー
1 はじめに Kinesis Video Streamsへ動画を送信する場合、メディア形式は、h.264又は、h.265である必要があります。 このため、GStreamerのパイプライン等、どこかの段階で、エンコードを組み込む必要があります。 今回は、Raspberry Pi で送信する場合に利用可能な、3種類のh.264エンコードについて確認してみました。 2 環境 確認に使用した環境は、Model 4B と Raspberry Piの公式カメラ V2です。 OSは、昨年9月の最新版(Raspbian GNU/Linux 10 (buster) 2019-09-26-raspbian-buster-full.img です。 $ cat /proc/cpuinfo | grep Revision Revision : c03112 $ lsb_release -a No LSB modul
ちょっと離れたところの様子がみたいことってありますよね。 たとえば、風が強い日の洗濯物👕の様子とか、もうすこしで花🌺が咲きそうなつぼみ、など。 たびたび見に行くのは面倒ですよね。 そんな時にご家庭にあるRaspberry Pi3とUSBカメラで映像配信して、スマホで見られたらいいなと思って、 生活に役立つ工作をしてみることにしました。 やりたいこと イメージはこんな感じです😎 どうやって作るの? 安いWebカメラはMJPEG(Motion JPEG)形式で動画が出てくるものが多いです。 でも容量が大きくなってしまう欠点があるので、動画変換ツールFFmpegで高圧縮なH.264に変換します。 変換した動画をRTMPというプロトコルでNginxに送り込みます。 FFmpegはUSBカメラの取り込みとRTMP出力に対応しているので、ここまでFFmpegだけで完結できます。 さすがFFmpe
Radxa X4 Radxa X4 公式サイト Radxa X4 with Intel N100, Dual 4K Output, 2.5Gbps Ethernet, PCIe 3.0 M.2 M Key, WiFi 5/6, High-Performance SBC 公式販売サイト 最安60ドル。 Radxa「X4」はクレカサイズでIntel N100+RP2040に2.5GbE搭載のSBC | がじぇっとりっぷ このサイトが詳しいのでお勧め Intel N100 を搭載した Raspberry Pi サイズの SBC 価格が安い メモリ 4GB + WiFi 5 で $59.90 メモリ 8GB + WiFi 6 で $79.90 メモリ 8GB + WiFi 6 + eMMC 64 GB で $89.00 https://arace.tech/products/radxa-x4?va
こんにちは。Visual M2M Data Visualizer の製品開発を担当している白金です。 以前に、「WebCodecs の VideoDecoder を使用してH.264の動画を再生してみた」の記事を紹介させていただきました。 tech.aptpod.co.jp その後、弊社が提供するVisual M2M Data Visualizer に含む標準ビジュアルパーツ「Video Player パーツ」に WebCodecs の VideoDecoder を適用した結果、複数の課題が改善できましたので、改善結果と苦労の軌跡について紹介したいと思います。 Visual M2M Data Visualizer を利用した動画ストリーミング再生に興味がある方、または WebCodecs の VideoDecoder を利用中・利用したい方のお役に立てたら嬉しいです。 WebCodecs
録画サーバー構築 Raspberry Pi 4b + USB boot Raspberry Pi OS 64bit (Docker-Mirakurun+Chinachu) ffmpeg H264_v4l2m2m HWエンコード 注意 2021年8月時点での録画サーバー構築覚書 内容を見てある程度分かる方向け 用意するもの Raspberry Pi 4b 電源とUSBケーブル(安定して5V/3Aを出せるもので) USBメモリ or USB SSD (転送速度の高速な物が良い) Plex PX-S1UD V2.0 SCM ICカードリーダー/ライター SCR3310/v2.0 B-CASカード その他 必要な方はアンテナ分配器やアンテナケーブルも。 Raspberry Pi 4b 2GB、Anker PowerPort+ 1、Amazon Basic USBケーブル(A to C )、Tran
前回までの記事で、Intel Media Driverをインストールし、無事にドライバの読み込みまでは完了したところである。 これでVAAPIを用いたエンコードは出来るのだが、ffmpegのバージョンがあがり、この状態からQSVを使ったエンコードまでできるようになった。 ご承知の通り、VAAPIを使ったエンコードはエンコードオプションが非常に少なく、使い勝手が良いとは言えない。対照的に、Intel QSVを用いると、オプションは豊富となり、さらに少しだけ「ファイルが重たくなってしまう」というような事象にも対応出来るようだ。 Intel Media SDKをインストールするまずはじめに、Intel Media SDKをインストールしておかなければ、QSVに対応することができない。ただし、インストール自体は非常に簡単である。 基本的には、公式サイトの通り。ただし最新版のLibvaが入っていれば
ライブ配信アプリ「OBS Studio for Mac」の今後のアップデートでApple Siliconの「Apple VT H264 Hardware Encoder」が利用可能になるようです。詳細は以下から。 Appleが2021年11月に発表したApple Silicon M1チップには、Apple T2チップ同様ハードウェア・エンコード/デコードエンジンが搭載され、既にScreenflowなどがH.264 H/Wエンコードを利用していますが、OBS Projectがオープンソース開発しているライブ配信アプリ「OBS Studio」のMac版も次期アップデートで、「Apple VT(VideoToolbox) H264 Hardware Encoder」をサポートする計画のようです。 ID3v2.4(@polamjag)さんが立てたIssue (#4170)によると、OBS Stud
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く