ffmpeg -re -i input -filter:v:0 scale=-2:720 -c:v:0 libx264 -c:a:0 aac -b:a:1 128k -filter:v:1 scale=-2:360 -c:v:1 libx264 -c:a:1 aac -b:a:1 96k -filter:v:2 scale=-2:240 -c:v:2 libx264 -map v:0 -map v:0 -map v:0 -map a:0 -map a:0 -flags +global_header -f tee "[select=\'v:0,a:0\':f=hls:start_number=0:hls_time=10:hls_list_size=0]high.m3u8|[select=\'v:1,a:1\':f=hls:start_number=0:hls_time=10:hls_list
Server-side ad insertion (SSAI) in comparison with client-side ad insertion has the benefit that it makes it a bit more difficult for ad-blockers to block the ads without interrupting the playback, requires less performance from the playback device and provides a more smooth transition in and out of an ad break. One requirement that will make it more challenging to implement SSAI is when you are r
segmentmuxer とは時間やフレーム数指定でストリームを分割する。出力ファイル名にはimage2muxer と同じように連番出力(%d)や、-strftimeオプションを使って日時設定もできる。正確にストリームを分割するにはキーフレームを分割毎の先頭に挿入しなければならない。キーフレームが先頭に来ないとキーフレームが来るまで映像が乱れる原因になる。hlsmuxer のオプションと併用することで詳細に分割設定ができる。 -reset_timestamps 1を付けると2分割以降のファイルの PTS がリセットされて動画投稿サイト向けに分割したファイルの投稿が可能になる。 ffmpeg で Apple HTTP Live Streaming(HLS)を扱う ffmpeg で指定秒ごとに分割する方法 フィルタ内で分割するなら。 詳細な分割設定ができる Segment 基本コマンド 300
HTTP Live Streaming(HLS)配信の基本的な手順をまとめます。 去年の記事 「NginxのHTTP Pseudo-Streamingを試す」 ではNginxの疑似ストリーミング配信モジュールを試してみましたが、機能不足のため実サービスで使うのは難しいです。そのためWebサーバでストリーミング配信を行いたい場合は今回紹介するHLSなどの利用が推奨されます。 HTTP Live Streaming(HLS)とは Apple公式のドキュメントを読む方が理解は進むと思いますが、一応ここでも簡単に概要を。 HTTP Live Streaming (also known as HLS) is an HTTP-based media streaming communications protocol implemented by Apple Inc. HTTP Live Streami
On-the-fly repackaging of MP4 files to DASH, HDS, HLS, MSS Working modes: Local - serve locally accessible files (local disk/NFS mounted) Remote - serve files accessible via HTTP using range requests Mapped - serve files according to a specification encoded in JSON format. The JSON can pulled from a remote server, or read from a local file Adaptive bitrate support Playlist support (playing several
CentOSにm3u8-segmenterをインストールするがほんのちょっぴり人気なので、FFMpeg単体でもセグメントできるよって話です。 FFMpegでSegment化 コンテンツは既に準備されているものとし、セグメント化のみ行います。 ffmpeg -i sample.mp4 -acodec copy -vcodec copy \ -vbsf h264_mp4toannexb \ -map 0 \ -f segment \ -segment_format mpegts \ -segment_time 5 \ -segment_list playlist.m3u8 \ -segment_list_flags -cache \ stream_%d.ts オプションについて -acodec copy -vcodec copy コンテンツのコーデックをコピー。トランスコードは行われない。 -
今回はメルチメディア系の話です。映像配信で良く使われる RTP/RTSP サーバではなく FFmpeg と Node.js で, MP4配信 / HLS( HTTP Live Streaming )配信 / ffserverを試してみました。 環境は CentOS6.4 (Final)ですが, ビルドは Debian7.4 でも確認しています。 FFmpegインストール h264S/Wコーデックのx264を使う場合,まずyasm(アセンブラ)をインストールした方がパフォーマンスが上がります。 # you need gcc & make-tools $ wget https://www.tortall.net/projects/yasm/releases/yasm-1.2.0.tar.gz $ tar zxvf yasm-1.2.0.tar.gz $ cd yasm-1.2.0 $ ./co
For a customer of ours, we need to mass encode thousands of video files and also segment and encrypt them for use with Apple’s HTTP Streaming. (using Amazon EC2 instances for the leg work). On his blog, Carson McDonald, has put together a good over view of how HTTP Streaming can work under Linux a long with a segmenter. The one piece of the jigsaw we were missing was encryption and after some wo
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く