並び順

ブックマーク数

期間指定

  • から
  • まで

521 - 560 件 / 642件

新着順 人気順

FFMpegの検索結果521 - 560 件 / 642件

  • HLS(m3u8+ts)形式の配信動画を再生・保存する|neo_tokio|note

    ※当記事は違法複製などの著作権侵害やそのような行為を推奨するものではありません。 HLS、m3u8とは HLSとはHTTP Live Streamingの略で動画配信で利用されている技術です。 インデックスファイル(.m3u8)と動画ファイル(.ts)で構成されており、 m3u8ファイルに動画ファイルのURLが記載されています。 m3u8ファイルは単純なテキストデータであり、配信動画を保存する場合は動画ファイルを取得する必要があります。 サイトごとの例動画再生画面を開くとm3u8ファイルを確認できる。 ・TVerの場合は master.m3u8 など ・SHOWROOMの場合は playlist.m3u8 など ・ジャニーズの場合は playlist.m3u8 など ・PIA LIVE STREAM の場合は prog-index.m3u8 など ・GYAO!の場合は master.m3u

      HLS(m3u8+ts)形式の配信動画を再生・保存する|neo_tokio|note
    • ニコニコ動画の新配信形式はどうなっているのか - Qiita

      11月頃から新サーバに移行しはじめてたり戻ったりしてるニコニコの配信形式ですが、どうやら以前のhls形式とは違った形式での配信が行われているようです。 三行で説明しろ 基本的にm3u8の形式に沿った配信がなされている 所定のファイルをすべてダウンロード後m3u8ファイルを書き換えることでffmpegで変換できる 単純にすごくめんどくさいので拙作のnico downloaderを使ってくれると嬉しい API API叩いたらここでもA/Bテストしているっぽくて泣きそうになった 安定してないのでここはかけない m3u8の安直な取得方法 前と同様にシステムメッセージに書いてある 動画の読み込みを開始しました。(https://delivery.domand.nicovideo.jp/hlsbid/~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ ) っていうところに書いてます AP

        ニコニコ動画の新配信形式はどうなっているのか - Qiita
      • VRChatで8K解像度動画を撮影するための設定方法 – 8KVRC | こはろぐ

        こちらは「8K Video Recorder Community(8KVRC)」という、8K録画に特化したVRChat向けコミュニティに所属されているLemonKaju(@LemonKaju)さんからの寄稿記事になります。 この記事では、VRChat内で高品質な8K動画を撮影するための詳細な設定方法を解説しています。 8K動画撮影に興味のある方はぜひ参考にしてみてください。 まずは、実際にVRChatを8K解像度で撮影した映像をみてみましょう。 プレイヤーの右側にある歯車アイコン「設定」から「画質」を選び、「4320p 8K」に設定して全画面で見てください。RTX 4070 Ti Superクラス以上のGPUを搭載したPCをお持ちの方はこの画質で思い出を残しましょう。 この記事では、「8K Video Recorder Community(8KVRC)」で使用されている8K動画撮影の設定方

          VRChatで8K解像度動画を撮影するための設定方法 – 8KVRC | こはろぐ
        • GUIのYouTubeダウンローダーを作成した - Qiita

          追記 改善点がまだまだたくさんありそうです。修正版を近いうちに公開します。 はじめに youtube-dlにはたびたびお世話になっておりますが、「GUIでもっと簡単にダウンロードしたい!」と思ったので作成しました。 ファイル構成 Folder |-ffmpeg.exe(動画ファイルと音声ファイルのマージに使用します。こちらからダウンロードしてください。) |-favicon.ico(tkinterのアイコンをに使用します。こちらから画像をもとにファビコンを作成できます。) |-youtube_downloader.py ソースコード import os import sys import threading import tkinter as tk import webbrowser from tkinter import filedialog, messagebox, ttk impor

            GUIのYouTubeダウンローダーを作成した - Qiita
          • pythonとyoutube-dlで簡単にmp4を部分ダウンロードする! - Qiita

            $ ffmpeg $(youtube-dl -g 'https://www.youtube.com/watch?v=Nyg2qysqgpg' | sed "s/.*/-ss 03:55:00 -i &/") -t 00:01:00 -c copy out.mkv

              pythonとyoutube-dlで簡単にmp4を部分ダウンロードする! - Qiita
            • arutema47's blog

              大遅刻ですが、LiDARアドベントカレンダーの記事です。 CES 2024でもたくさんLiDARが発表され、各社大きく性能を伸ばしています。 なんで各社横並びで性能向上できたかは。。今年中に情報解禁されるんじゃないでしょうか。 Valeo Scala3 news.yahoo.co.jp youtu.be www.valeo.com OEMメーカのため詳しい性能はオープンになっていないが、中国lidar導入は難しい日系OEMにとっても本命の一つか。 SCALA2に比べると10倍の解像度向上を達成しており、解像度は水平垂直共に0.05度らしい。 s % HesaiやRobosenseの同解像度品と比べるとかなり粗く見えるのは気の所為? Robosense M3 www.youtube.com www.robosense.ai 解像度0.05度、10%反射率物体の検知距離300m 940nm V

                arutema47's blog
              • Puppeteer/Playwrightでの画面録画・コードリーディング

                この記事は kb Advent Calendar 2020 1 日目の記事です。 https://adventar.org/calendars/5280 Chrome 等のブラウザを自動操作するためのライブラリとして、Google が開発する Puppeteer と、Firefox 等もサポートに加えた Microsoft の Playwright などが有る。現時点で機能差は多くないが、Playwright にはブラウザ画面を webm として録画出来る機能が有る。しかし Puppeteer には実装されていない。何故 Puppeteer では実装されないのかを中心に、今回調査を行った。 Playwright での録画 Microsoft のライブラリ実装の Playwright では、録画向けの API が提供されている。v1.4.0 のリリースで公開され、次の v1.5.0 で AP

                • git-simコマンドでGitを視覚化する - Qiita

                  Git コマンドの操作を視覚的にシミュレートしてくれるおもしろそうなツールがあったので入れてみた。commit や merge は実際に実行されるのではなくあくまでシミュレートなので、例えば利用頻度が比較的低い revert や reset の前にちょこっと使ってみるとコマンド実行前に動きが見えるので良い。下図は git reset を視覚化しシミュレートしたもの。 前提 macOS Big Sur 11.7.2 (Catalina 以下だと動かない模様) Homebrew 3.6.20 Python 3.8 pip 21.1.3 事前準備 git-sim を使うにあたっての依存関係をインストール。 # manim の依存関係をインストール $ brew install py3cairo ffmpeg # manim をインストール $ pip3 install manim

                    git-simコマンドでGitを視覚化する - Qiita
                  • ffmpeg.wasmをブラウザ上で動かしてみた - voicy tech blog

                    はじめに こんにちは、主にWebフロントエンドエンジニアをしているきーくん(komura-c)です。今回は業務とは関係なく、ffmpeg.wasmに興味を持ったため、ブラウザ上で動かしてみました。主にフロントエンド側の処理について追って、書いてみたのでぜひ読んでみてください! はじめに ffmpegとは ffmpeg.wasmとは ffmpeg.wasmをブラウザ上で動かす おわりに ffmpegとは ffmpegはオーディオ、ビデオなどを変換、処理するためのライブラリ、ツール群です。 https://github.com/FFmpeg/FFmpeg ffmpegのコードは主にLGPLライセンスで公開されていますが、依存ライブラリにより多様なライセンスが適用されています。 https://github.com/FFmpeg/FFmpeg/blob/master/LICENSE.md 歴史の

                      ffmpeg.wasmをブラウザ上で動かしてみた - voicy tech blog
                    • 話題の音声認識ツールキット Vosk を試してみた

                      たまたまTLで見かけたので試してみました。結果から言うとすごく簡単、触っていておもしろかったです。 What is Vosk? 20言語以上に対応した音声認識ツールキット。言語モデルが50MBと軽く、組み込みがしやすいです。[1] PythonはもちろんのことNode.jsやJava, C#でも実装可能。ラズパイ/iOS/Android用のビルド、Websocketサーバまで用意されているという準備の良さです。 なおM1 Macには非対応です。 詳しくは Vosk のリファレンスで。 サンプル音声の準備 まずは音源の準備をします。フリーの素材がないかと探していたところ こえやさん と言うサイトを見つけたので今回はこちらのファイルを拝借。 Voskのページをみると、しれっと以下のような記載があったのでffmpegで変換します。 When using your own audio file m

                        話題の音声認識ツールキット Vosk を試してみた
                      • 超小型PC(UM690)とeGPUで4K高画質高FPSゲーミングPC環境を構築したい|Naohiro KORIYAMA|note

                        minisforumと言う中国のミニPC専業の会社のミニPCのUM690というミニPCがある。単純にミニPC単体でそこそこのゲーミング性能を求めるならノートパソコン用GPUを搭載した機種(HX99GやNUCXI7等)を選ぶのがコスパもいいし、利便性も高いだろう。UM690のCPUに内蔵されたGPU(AMD Radeon™ 680M)はCPU内蔵のGPUの中でも現時点でトップクラスの驚異的な性能を誇っており、フルHDでそれなりの画質でそれなりのFPSでゲームを普通にこなせるだけの性能を持っていて、4kでゲームも低画質で低FPSでならプレイも出来るとは思う。今回の目標としては、UM690で4kネイティブ解像度で高画質高FPSのプレイが出来ることを目指したい。その目標はUM690単体では残念ながら実現することは出来ない。eGPU(xternal Graphics Processing Unit)

                          超小型PC(UM690)とeGPUで4K高画質高FPSゲーミングPC環境を構築したい|Naohiro KORIYAMA|note
                        • whisper.cppで文字起こしをやってみた - oinume journal

                          自分の備忘録としてのやってみた系の話。OpenAIが提供するモデルを使って文字起こしをするC++実装のwhisper.cppを試してみた。 環境 Apple M1 MacBook Air 2020 (Memory 16GB) uname -a Darwin hogehoge.local 22.3.0 Darwin Kernel Version 22.3.0: Mon Jan 30 20:39:35 PST 2023; root:xnu-8792.81.3~2/RELEASE_ARM64_T8103 x86_64 whisper.cppのビルド 以下のコマンドを実行してビルドする。 git clone https://github.com/ggerganov/whisper.cpp.git cd whisper.cpp make ビルドが成功すると、カレントディレクトリに main という名

                            whisper.cppで文字起こしをやってみた - oinume journal
                          • FensiにAmazon Chime SDKを使って1on1トーク機能を実装した話 | CyberAgent Developers Blog

                            はじめに CAMでは、あらゆる表現活動をする方を全力で応援するサービスとして、Fensiの運営・開発を行っており、2021年1月には1on1トーク機能をリリースしました。1on1トーク機能は根幹となるトーク部分にAmazon Chimeを使用しています。 今回は、Amazon Chimeを使用してどのように1on1トーク機能を実現しているかを紹介します。 目次 Fensiについて Fensi Platformについて 1on1トークについて ネイティブアプリの実装 監視録画機能 まとめ Fensiについて Fensiは記事・写真・動画などのコンテンツを投稿することで、簡単に自身の公式サイトやファンクラブを開設することができるサービスです。 ページの仕様やデザインを自由に組み合わせることでその方らしいサイトを制作できるほか、オリジナルグッズの販売機能やオンラインサロン、1on1トークやレッス

                              FensiにAmazon Chime SDKを使って1on1トーク機能を実装した話 | CyberAgent Developers Blog
                            • GitHub - l1ving/youtube-dl: A fork of youtube-dl, for archival purposes.

                              youtube-dl - download videos from youtube.com or other video platforms CHANGES INSTALLATION DESCRIPTION OPTIONS CONFIGURATION OUTPUT TEMPLATE FORMAT SELECTION VIDEO SELECTION FAQ DEVELOPER INSTRUCTIONS EMBEDDING YOUTUBE-DL BUGS COPYRIGHT CHANGES You can view the changes made to ytdl-org/youtube-dl here You can view the archived tags here: youtube-dl/releases You can view the archived unmerged pull

                                GitHub - l1ving/youtube-dl: A fork of youtube-dl, for archival purposes.
                              • [.NET/C#] アプリにgitのコミットIDを埋め込む - Qiita

                                > ffmpeg ffmpeg version 2021-10-21-git-2aa343bb6f-full_build-www.gyan.dev Copyright (c) 2000-2021 the FFmpeg developers これをC#で簡単に実現したいと思います。 今回はコミットIDとブランチ名を埋め込みます。 VisualStudio利用時 説明文にすると長いですが、簡単です。 1.ビルド前イベントの登録 プロジェクトのプロパティ「ビルド前イベント」を利用してgitの情報をファイルに書き出します。 git rev-parse --short HEAD > $(ProjectDir)git_id.txt git branch --show-current > $(ProjectDir)git_branch.txt 1行目は短いコミットID、2行目はブランチ名です。 ブランチ

                                  [.NET/C#] アプリにgitのコミットIDを埋め込む - Qiita
                                • 第730回 Shinobiとネットワークカメラで監視カメラシステムを作る🥷 | gihyo.jp

                                  Shinobiとは 自宅では防犯目的やペットの見守り、職場では計算機室や倉庫の監視目的でカメラを設置している場合もあるでしょう。今回はそういったカメラを利用して、CCTV(閉回路テレビ、いわゆる監視カメラ)/NVR(ネットワークビデオレコード)システムを構築するためのネットワークカメラソリューションShinobiを紹介します。 ShinobiはNode.jsで書かれたオープンソースのWebアプリなので、システムの利用時に専用のアプリケーションを必要としません。そして以下の場合に有用です。 一つの画面で同時に複数のカメラの映像を見たいが、実現のために追加で有料のアプリを購入が必要なので二の足を踏んでいる カメラの録画やスナップショット撮影を行いたいが、様々な都合からメーカーの用意しているツールやサービスを使用したくない・できない 動体検知で入室してきた人・物を録画したい カメラの用意している

                                    第730回 Shinobiとネットワークカメラで監視カメラシステムを作る🥷 | gihyo.jp
                                  • サンプリング周波数を変えずにテンポとピッチを変える rubberband | ニコラボ

                                    サンプリング周波数を変えずにテンポとピッチを変える rubberband Posted on 2015年10月11日 (Updated on 2022年1月30日) in FFmpeg 今まではテンポ(再生速度)を変えるにはatempoフィルタを、ピッチ(高低)を変えるにはasetrateフィルタを使っていたが、rubberbandフィルタはasetrateフィルタで変わる周波数を変えずにピッチとテンポを変えることができ、atempoフィルタよりも品質がよい場合がある。 rubberbandフィルタは別途ライブラリをインストールしないと使えないのと、現在は 64bit に未対応である。 標準フィルタを使う場合。 映像と音声の pts を扱う setpts, asetpts ピッチを任意の周波数に変更するasetrate 基本コマンド 2倍速再生にする(映像は2倍速にはならない)。 ffpl

                                      サンプリング周波数を変えずにテンポとピッチを変える rubberband | ニコラボ
                                    • HLSを使って動画をストリーミング配信する - Qiita

                                      3つの映像配信方式 ストリーミング 音声や動画ファイルを細かく分割(セグメント)して配信する仕組みです。 データを受信しながら再生を行うことができます。 ファイルを分割して配信しているので、動画の途中部分を開始地点としたデータの受信(再生)もできます。 受信したデータは視聴者側にファイルとして保存されないことが特徴です。 YouTubeなどの動画配信や、Spotifyなどの音楽配信もこれに分類されます。 プログレッシブダウンロード 疑似ストリーミングとも呼ばれ、この方式もデータを受信しながら再生を行うことができます。 ただし、ストリーミングと異なり、動画の途中部分から受信を開始するといったことができません。 受信したデータはキャッシュファイルとして保存されます。 <video src="sample.mp4"></video>といった記述では、この方式でデータを受信します。 ダウンロード

                                        HLSを使って動画をストリーミング配信する - Qiita
                                      • Ubuntu 24.04 LTS “Noble N”の準備、「intel-opt」「laptop」カーネルフレーバー | gihyo.jp

                                        Ubuntu Weekly Topics Ubuntu 24.04 LTS “Noble N”の準備⁠⁠、「intel-opt」「laptop」カーネルフレーバー Ubuntu 24.04 LTS “Noble N”の準備 Desktopイメージの再リリースという予想外の展開はあったものの23.10のリリースが完了し、「⁠次のLTS」である24.04の開発をスタートする準備が進められています。 Ubuntuのコードネームはアルファベット順が使われるため、23.10の「M」の次、ということで「N」であることはおおむね明らかであるものの、いくつかの痕跡や、意味深な投稿、あるいはリリーススケジュールのアナウンスで明らかにされている通り、24.04のコードネームの前半部分は「Noble」となります。後半部分はまだアナウンスされておらず、今のところは単に「noble」と呼ばれたり、あるいは「Nobl

                                          Ubuntu 24.04 LTS “Noble N”の準備、「intel-opt」「laptop」カーネルフレーバー | gihyo.jp
                                        • Raspberry Pi 4で地デジ録画サーバー

                                          Raspberry Pi 4で地デジ録画サーバー はじめに 著作権にだけは気を付けてください。 使用機器 Raspberry pi 4 ModelB 4GB 秋葉原で7000円弱ぐらい。3でも普通に動くらしい(未検証)。 PLEX USB接続型フルセグ対応地上デジタルTVチューナー PX-Q1UD 秋葉原で15000円ぐらい。同時録画しない人はPX-S1UD V2.0でも問題ない。 SEAGATE BarraCudaハードディスク・ドライブ6TB ST6000DM003 秋葉原でセールで9800円。好みで何でもいい。.m2tsの形式で保存するなら1時間のバラエティを録画すれば大体6~7GBになる。 玄人志向 SSD/HDDスタンド KURO-DACHI/ONE amazonで2500円。今回は6TBのHDDを利用したので別電源が必要になる。容量の小さなHDDを使う場合でも、多くの危機をUS

                                            Raspberry Pi 4で地デジ録画サーバー
                                          • Docker for WindowsでLinux作業環境とWebサーバ環境を構築する

                                            はじめにコンピュータ上に仮想化環境を構築して、異なるOSやWebサービスのテストや運用をすることはすでに一般的で、複数ある選択肢のうちDockerに興味があったので使い始めました。 参考:仮想環境についてまとめてみる(https://qiita.com/9en/items/f4eab2f61485a9f3885a) Dockerでは、仮想化環境の構成要素を設定ファイルとして記述して環境構築を自動化します。そのため、Dockerが動いている他のマシンと設定ファイルを共有することで同じ仮想化環境を構築できるほか、同じ設定をCloudにデプロイしてローカルで試行した環境をほぼそのままCloudサーバ上に構築するといった使い方ができることもDockerの魅力だと思います。 しかしながら、Dockerを使用すればホストマシンによらず同じ環境を構築することができるかというと、必ずしもそうではなく、特に

                                              Docker for WindowsでLinux作業環境とWebサーバ環境を構築する
                                            • Google Chrome で動画を再生した際のカラーマネジメントに関する簡単な調査 - toruのブログ

                                              1. 背景 2020年12月から YouTube で HDR の Live配信がサポートされた[1] 筆者は、YouTube の HDR の Live配信を SDRモニターで見た際の HDR to SDR 変換に関心がある Google Chrome を使用して特性を調査したいが、筆者は Google Chrome の動画のカラーマネジメントを殆ど理解していなかった そこで Google Chrome で動画を再生した際のカラーマネジメントに関する簡単な調査を行った 2. おことわり この記事は 2020年1月に筆者のPC環境で検証しました。 そのため、この記事を読んでいる方の環境で同じ結果が得られるかは不明です。ご了承ください。 筆者のPC環境は以下の通りです。 項目 値 バージョン 備考 OS Windows10 20H2 - Browser Google Chrome Version

                                                Google Chrome で動画を再生した際のカラーマネジメントに関する簡単な調査 - toruのブログ
                                              • ATOM Camの常時記録動画からタイムラプス動画を生成するPythonスクリプトを書いてみた

                                                はじめに 税込2,500円の格安ネットワークカメラ「ATOM Cam」(Amazonでも買えます)で撮影した常時記録動画からタイムラプス動画を生成するPythonスクリプトを書いたので、メモを残しておきます。 背景 ATOM Camには、それ自身にもタイムラプス動画の作成機能がありますが、撮影開始前に条件(撮影間隔など)を決める必要があり、また不意に撮影が停止してしまうことがあったことから、別の方法を考えました。 ATOM Camには、常時映像&音声を記録し、microSDカードに書き込む機能があります。MP4形式、フルHD(1980x1080)、20フレーム/秒の動画ファイルが1分毎のファイルとして生成されます。 以前はそれらの動画ファイル群(撮影時間、条件にもよりますが10時間で6GBほど)をMP4Boxコマンドで結合し、ffmpegコマンドで速度の調整を行っていました。 ただ、中間フ

                                                  ATOM Camの常時記録動画からタイムラプス動画を生成するPythonスクリプトを書いてみた
                                                • Windows用のlibfdk_aacが使えるffmpegを手に入れるまでの長い道のり - cafegale(LeafCage備忘録)

                                                  以前からAACエンコーディングするならFDK-AACという情報は得ていた。 ffmpegのオーディオコーデックの指定:tech.ckme.co.jp ただ、ライセンスの問題から、FDK-AACを組み込んだffmpegは配布されておらず、使いたければ、自分でビルドするしかないらしく、かつて一度ビルドしようとして失敗して、あきらめてAACエンコーディングを行わない方針をとっていた。 TVのTSファイルをmp4にエンコードするのに、-c:a copyで音声部分はエンコードしないで無劣化音声をそのまま使うようにしていた。ただ、それだとエラーが出てmp4エンコードできないファイルを発見したので、再びFDK-AAC付きのビルドに挑戦することにした。 (以下のようなメッセージが出てエンコードが開始しない。) Last message repeated 6 times [mp4 @ 000001af419

                                                    Windows用のlibfdk_aacが使えるffmpegを手に入れるまでの長い道のり - cafegale(LeafCage備忘録)
                                                  • ほぼ無料で作れる低遅延 0.1秒(100ms)カメラ伝送システムの作り方を紹介

                                                    ジュエ株式会社の技術部です。ほぼ無料で作れる1対1の超低遅延0.1秒(100ms)カメラシステムの作り方を紹介します。各産業向けの超低遅延カメラシステムは、それなりの金額になるでしょう。低遅延カメラシステムを検証したいけど予算が無い。。。という方はお試しください。持っているパソコン2台を使う前提になりますが、数百分の1ぐらいの費用で作れるかもしれません。 0.1秒(100ms)の遅延であれば、実証実験に使える低遅延です。遅延に関しては、カメラ映像出力の遅延、送信側と受信側のシステム間の遅延、モニターの遅延、無線や有線やサーバなどインターネット間の遅延、映像のエンコードやデコードなどさまざまな要素がありますが、本記事では、詳しく分析しません。測定もざっくりです。今回の0.1秒(100ms)遅延は、カメラから受信側モニターに表示されるまで遅延です。そこが分かればOKでしょう。 Zoomなどオン

                                                    • グラフィックスAPI「Vulkan」をサポートした「FFmpeg 4.3」が公開/5件の脆弱性も修正。最大深刻度は“Critical”

                                                        グラフィックスAPI「Vulkan」をサポートした「FFmpeg 4.3」が公開/5件の脆弱性も修正。最大深刻度は“Critical”
                                                      • メモ:お手軽にWebRTCでVideoChatをしたいので、Janus-gatewayをAWS EC2やRaspberry Pi4上に立てたときのメモ - cvl-robot's diary

                                                        (まだ書きかけ) 今、ネットワーク越しに動画データを送りたいと考えたときに、どうしてもWEBRTCがその候補に挙がってきます。WEBRTCのライブラリやサービスは山のようにあるのですが、進歩が速いことを理由に行き届かないことが多くて、どれもこれも中途半端で問題だらけです。 まずWEBRTCが何なのかを把握するために、次の4つぐらいの区別が付くようにしとく必要が有ります。 ・WEBRTC(P2P): 1対1で繋ぐとき。(もともとの設計。簡単。) ・WEBRTC SFUサーバー: サーバーを中心の媒介として複数間をつなぐとき (・WEBRTC MCUサーバー): サーバーを中心の媒介として処理をさせつつ複数間をつなぐとき。使う機会はあまりなさそう。 ・WEBRTCクライアント: ユーザーがWEBRTCを使うときのインターフェース インターネットに繋いでNAT越えをするときには、次も知っておく必

                                                          メモ:お手軽にWebRTCでVideoChatをしたいので、Janus-gatewayをAWS EC2やRaspberry Pi4上に立てたときのメモ - cvl-robot's diary
                                                        • AndroidでFFmpegを使って音声ファイルを解析・変換する - Qiita

                                                          はじめに FFmpegと聞くと、動画や音声を解析・変換することができたりと機能豊富で非常に難しそうなイメージですよね。ですが、音声だけに絞ってみれば意外と簡単(?)に使いこなすことができるんじゃないかと思います。 今回は音声解析・変換の基礎的な使い方をAndroidで実践してみたいと思います! (サンプルコードはこちら) FFmpegのインストール AndroidのFFmpegライブラリはいくつかありますが一番開発が活発なMobileFFmpegを使ってみます。 MobileFFmpegはAndroidの他にiOS, tvOSで利用でき、メインバージョンとLTSバージョンがあります。 (今回ご紹介するコマンドはどちらのバージョンでも使えます) // NOTE: フル機能が使えるがサポートされるAPIレベルが24以上 implementation 'com.arthenica:mobile-

                                                            AndroidでFFmpegを使って音声ファイルを解析・変換する - Qiita
                                                          • Raspberry Pi4 でラジオ録音サーバーを構築する - Qiita

                                                            ラジオの録音は rec_radiko.sh を使用し、グーグルドライブに保存していました。しかし2020年12月頃より、Flashの関係で録音ができなくなりました。 そこで、新たに登場したスクリプトを使い、ラジオの録音サーバーを構築、sambaでPCに共有してみます。 スクリプトについて 1. radish オンタイムで録音ができるスクリプトです。 らじるらじる、ラジコ、ListenRadio、JCBAインターネットサイマルラジオ、渋谷のラジオに対応しています。 2. rec_radiko_ts 番組終了後、ラジコのタイムフリーの音声ファイルを落とすことができるスクリプトです。 放送中にずっと、録音させなくて良いので便利です。 ※ どちらのスクリプトもラジコのエリアフリーに対応しているようです。 1. radish 導入準備 radish を動かすのに必要なものを入れます。 $ sudo

                                                              Raspberry Pi4 でラジオ録音サーバーを構築する - Qiita
                                                            • Raspberry PiでEPGStationの録画データを自動CMカットしてエンコードする

                                                              Raspberry PiでEPGStationの録画データを自動CMカットしてエンコードする 2021.03.20 ソフトウェア Raspberry Pi, ソフトウェア Raspberry PiとPX-W3PE4を利用してDockerを利用しないでMirakurunとEPGStationを構築する 録画できるようになったので、自動でCMカットしてエンコードされるようにしようと思います。 CMカットにjoin_logo_scpを利用 join_logo_scpというツールがCMカットの精度が高いようなので利用します。 個人的には別に消さなくても良いのですが、ロゴの消去もできるようです。 環境について ここから構築する環境はハードウェアに依存するところが多いようです。 私の環境はRaspberry Pi OS Lite 32bitを導入したRaspberry Pi4なので、それに合わせたコマ

                                                                Raspberry PiでEPGStationの録画データを自動CMカットしてエンコードする
                                                              • 録画サーバの構築(地デジ・BS・CS録画環境) – Debian Linuxによる自宅サーバ

                                                                パソコンに接続できるTVチューナーを使って、自宅サーバで地デジ・BS・CSを録画できる環境を構築する方法をご紹介します。具体的には、株式会社プレクスが販売しているPX-Q3U4/PX-Q3PE4のTVチューナーを使用し、録画アプリケーションとしてMirakurunとEPGStationをDocker上で動かします。 必要な機器 TVチューナー PX-Q3U4 (外付け型) PX-Q3PE4 (内蔵型) 上記以外の機種でもドライバが対応していれば問題ありませんが、設定が変わる場合もあります。 ICカードリーダー クレジットカードやマイナンバーカードにはICチップが埋め込まれているのですが、それらを読み取る事ができる装置です。 ICカードリーダ https://www.amazon.co.jp/gp/product/B003XF2JJY B-CASカード 地デジの情報を復号化するために必要です

                                                                  録画サーバの構築(地デジ・BS・CS録画環境) – Debian Linuxによる自宅サーバ
                                                                • OpenAIリリースのWhisperをCPUだけで動かすために色々試した話 | DevelopersIO

                                                                  皆さんこんにちは、クルトンです。 今回は、OpenAIがリリースしたWhisperをCPUだけで動かしてみました。 Google ColabなどでGPUを動かすときに上限制限が気になる人の参考になればと思い筆を取りました。 最終的にはローカルCPUで動かしているので、そこだけ見たいという方は「ローカルCPUでWhisperを動かす」からご覧ください。 キッカケ 社内で記事が出ており、そこから興味を持ったので動かそうとしました。 「まずは簡単に試したい」と考えたので、実際に動かそうとしたのはこちらの公式のチュートリアルです。 GPUを使って動かしてもよかったのですが、簡単にCPUで動かないかと考えて試そうとしました。 エラーと学習時間 Google ColabのチュートリアルをCPUで上から順番に実行していると、whisper.DecodingOptionsメソッドで次のようなエラーに遭遇す

                                                                    OpenAIリリースのWhisperをCPUだけで動かすために色々試した話 | DevelopersIO
                                                                  • 【Stable Diffusion】あなただけのAI画像を動かす方法@Google Colab|Toshimaruちゃん【日本ChatGPT研究所】

                                                                    画像生成AIで美女を愛でている(@Toshimaruちゃん)です。 今回は、Stable Diffusion web UI(Google Colab)で“mov2mov”(動画から動画生成)の方法をお伝えします。 まだ日本語で解説しているサイトが少ないので、この記事が参考になったら「スキ」や「保存」をよろしくお願いいたします。 ※コメントも励みになります! ★この記事は、Google Colab上でStable Diffusion WebUIが起動できることを前提とした記事となっています。よくわからん!という方は、下記の記事をご覧になってからチャレンジしてみてください。 【重要追記事項】 昨今の画像生成ブームの影響を受け、Google ColabでのStable Diffusionの利用が制限を受ける可能性があると発表がありました。ただし、有料版は、これに該当しないとのことです。無料で利用

                                                                      【Stable Diffusion】あなただけのAI画像を動かす方法@Google Colab|Toshimaruちゃん【日本ChatGPT研究所】
                                                                    • WHIP/WebRTC配信をサポートし、macOSではアプリケーションのオーディオキャプチャ機能を追加した「OBS Studio v30」のBetaテストが開始。

                                                                      WHIP/WebRTC配信をサポートし、macOSではアプリケーションのオーディオキャプチャ機能を追加した「OBS Studio v30」のBetaテストが開始されています。詳細は以下から。 ライブ配信アプリOBS Studioを開発するOpen Broadcaster Software Projectは現地時間2023年08月17日、次期メジャーアップデートとなる「OBS Studio v30」のBeta 1を公開したと発表しています。 30.0 New Features Added WHIP/WebRTC output [Sean-Der / kc5nra / DDRBoxman / tt2468] Redesigned the status bar [cg2121 / GeorgesStavracas / Warchamp7] Added application audio capt

                                                                        WHIP/WebRTC配信をサポートし、macOSではアプリケーションのオーディオキャプチャ機能を追加した「OBS Studio v30」のBetaテストが開始。
                                                                      • 「FFmpeg 5.0」が公開 ~大規模なAPIの変更を実施した長期サポート(LTS)リリース/今後は年1回のメジャーリリースを実施

                                                                          「FFmpeg 5.0」が公開 ~大規模なAPIの変更を実施した長期サポート(LTS)リリース/今後は年1回のメジャーリリースを実施
                                                                        • ffmpeg で複数動画結合 | site-hhs

                                                                          動機 + 「ついで」 ここで hstack, vstack 使ったついでに Merge Conference Video and Audio call output using hstack ffmpeg 的な、かなり起こりうるニーズのことをやってみよう、つーことである。一つ前で予告した通り、『たとえばともだちと共同で同じ対象を撮影したとしてだな、未編集ならばそれらは時刻あわせさえちゃんと出来るなら、対象までの距離差さえなければ簡単に同期するはずだ、みたいなことね。』であるとか、あるいは「似ているが違う」ものを比較目的で同時再生したい、なんてのも良くあることだろうし。後者のニーズはサイエンスな分野でありがちな気がするわね。(というか正直そういう複数動画同時再生可能なプレイヤーがあればいいのにと思う。) が、「動画結合」とあえてタイトルを外しておいて、ついでなので How to concat

                                                                          • Notcurses

                                                                            When Bison graced her village, it was Tuesday notcurses is a library for building complex, vibrant textual user interfaces (TUIs) on modern terminal emulators. It does not use Ncurses (though it does make use of libtinfo from that package), nor is it an X/Open Curses source-compatible replacement. It is written in C, with C++-safe headers. Rust, C++, and Python wrappers are available. Source and i

                                                                              Notcurses
                                                                            • ディープラーニング で音声データのノイズリダクション 〜 その① - kouohhashi's tech blog

                                                                              ディープラーニングを使って音声データのノイズリダクションに挑戦してみることにしました。 ソツーで音声認識をやる上で、入力値となる音声データのノイズを事前に減らしておけると良いのではと思ったのと、単純に面白そうで勉強にもなるかなと思ったのが動機です。上手いこと動いてくれれば、上記以外でも使い道がありそうっていうのも魅力的です。 折角なので、Tensorflowを使ってend-to-endのモデルがトレーニング出来たら良いなと思っています。 1週間もあれば、成果を出せるかなと思ったのですが、舐めてました。end-to-endの音声のノイズ除去は調べてみると中々大変。また、取り組んでいる開発者が少ないせいか、説明してくれているウェブサイトもGithubのソースコードも少ないかったです。 というわけで、一気にやり切ることは断念し、3回か4回にわけてプロジェクトを進めることにしました。 作戦 調査

                                                                                ディープラーニング で音声データのノイズリダクション 〜 その① - kouohhashi's tech blog
                                                                              • Apache Guacamole でVNCつないでみたの

                                                                                2021/01/01 編集しまして、1.0.0 -> 1.2.0 にしました。 バージョンアップによる変更はそこまでありませんが、個人的に気になったものは以下です。 FreeRDP 2.0 に依存ライブラリが変更(1.1.0) 日本語に対応(1.2.0) Guacamoleって何? https://guacamole.apache.org/ html5を使ってブラウザ経由でvnc、rdpなどを利用できるもののようです。 vnc(virtual network computing) はデスクトップ環境にネットワーク越しからアクセスできる仕組みです。 検証環境など、閉じたネットワークでGUI操作が必要な場合に、踏み台のlinuxサーバに手元の端末からvncで接続すると便利です。 しかし、専用のクライアントが必要だったりします。 今回は仮想マシン上で動作するvncサーバにブラウザからアクセスでき

                                                                                  Apache Guacamole でVNCつないでみたの
                                                                                • Track Awesome List Updates Daily

                                                                                  Track Awesome List Updates DailyWe track over 500 awesome list updates, and you can also subscribe to daily or weekly updates via RSS or News Letter. This repo is generated by trackawesomelist-source, visit it Online or with Github. 📅 Weekly · 🔍 Search · 🔥 Feed · 📮 Subscribe · ❤️ Sponsor · 😺 Github · 🌐 Website · 📝 04/22 · ✅ 04/22 Table of Contents Recently Updated Top 50 Awesome List All Tr

                                                                                    Track Awesome List Updates Daily