タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

audioとiosに関するsadoru3のブックマーク (7)

  • AVAudioEngineでの音声ファイル再生で、再生時間の取得・再生位置指定を行う - 麦芽を支える技術

    あまり明確な情報がなかなか見つからなくてだいぶ苦戦したけど、一応出来たのでメモ。 もうちょっとスマートなやり方あるのかもしれませんが。 やりたいこと AVAudioEngine、AVAudioPlayerNodeを使った音声データの再生 総再生時間、現在の再生時間を取得 任意の再生位置からの音声再生(シーク機能) Webでいろいろ調べていると、上記1点目の基的なAVAudioEngineの使用方法や、エフェクト・速度変更などの音声効果の使い方は以下のように結構載ってるんですが、通常の音声プレイヤーとして必要な2,3点目のやり方がなかなか見つからなかったんですよねー。 [iOS 8] AVFoundation Audio機能メモ [iOS 8] AVFoundationのAVAudioPlayerNodeで音楽ファイルを再生してみる Sound effects using AVAudioE

    AVAudioEngineでの音声ファイル再生で、再生時間の取得・再生位置指定を行う - 麦芽を支える技術
    sadoru3
    sadoru3 2020/04/15
    Audioファイル再生時間を秒単位以上の精度で扱うときに参考になるのかも
  • Core Audio その2 AudioStreamBasicDescription | objective-audio

    Core Audioにおいて、オーディオデータの状態(リニアPCM等のフォーマットとか、ビットやサンプリングレートとか、チャンネル数とか)を表す構造体がAudioStreamBasicDescriptionです。 struct AudioStreamBasicDescription { Float64 mSampleRate; //サンプリング周波数(1秒間のフレーム数) UInt32  mFormatID; //フォーマットID(リニアPCM、MP3、AACなど) UInt32  mFormatFlags; //フォーマットフラグ(エンディアン、整数or浮動小数点数) UInt32  mBytesPerPacket; //1パケット(データを読み書きする単位)のバイト数 UInt32  mFramesPerPacket; //1パケットのフレーム数 UInt32  mBytesPerFr

  • Core Audioの復習

  • ダウンロード可能な Audio Unit 関連のサンプルコード11個 - Qiita

    Audio Unit は、iOS の Core Audio においてもっとも低レベル(ハードウェアより)に位置するフレームワークです。そのため低レイテンシを要求されるオーディオ処理機能を提供するアプリに向いています。 「ユニットをつなげて複雑なオーディオ処理を実現する」というしくみ(AUGraph)を持っており、まるでギターのエフェクターをつないで音をつくるようにユニット同士を結合できて、実装していて楽しいフレームワークでもあります。 ただ API は全部 C ベースだし、音を再生するだけでも(AVAudioPlayer 等と比較すると)複雑だったりするので、参考になるサンプルをいろいろと集めてみました。 どの Audio Unit を使用しているか(kAudioUnitSubType_xxxx で判断) どういうサンプルか 最終更新はいつか の観点からまとめています。 使用ユニットの項目

    ダウンロード可能な Audio Unit 関連のサンプルコード11個 - Qiita
  • swiftでWAVファイルを読み込みたい

    AVAudioFileを使ってみてはいかがでしょうか。 ネタ元はこちらですが、最新版のXcode 10/Swift 4.2に合わせて書き換えています。(申し訳ありませんが、Xcode 9.0.1は手元にありません。それほど大きな書き換えはいらないと思います…。) import Foundation import AVFoundation let url = URL(fileURLWithPath: "/Users/dev/Desktop/sound.wav") doBlock: do { //所定の処理形式でデータを読み込む(16-bit整数、非インターリーブ) let file = try AVAudioFile(forReading: url, commonFormat: .pcmFormatInt16, interleaved: false) let format = file.pr

    swiftでWAVファイルを読み込みたい
    sadoru3
    sadoru3 2020/01/29
    “wavファイルから最終的にデータ部分をIntやFloatのarrayとして取り出したい”
  • iPhoneで音声解析!FFTで周波数特性を得る方法 - 株式会社CFlatの明後日スタイルのブログ

    iOSで音声を録音するのはもちろんできますが、FFTのライブラリも標準で組み込まれていて手軽に使えます。今日は録音した音声ファイルを解析して周波数特性(パワースペクトル)を得るところまでを紹介します。意外とそのものずばりの方法はなかなか見つからないので。 なお、サンプルコードはエラー処理を省いているので必要であれば適宜追加する必要有りです。 フレームワークを追加する フレームワークを3つ追加します。 AVFoundation ← 録音 AudioToolBox ← ExtAudioFileのため Accelerate ← FFTのため 音声を録音するまで まずAudioSessionの初期化が必要です。これをやっておかないと録音できません。このコードは起動時に実行されれば良いのでAppDelegateのdidFinishLaunchingWithOptionsあたりで呼んでおけばOKです。

    iPhoneで音声解析!FFTで周波数特性を得る方法 - 株式会社CFlatの明後日スタイルのブログ
    sadoru3
    sadoru3 2020/01/29
    “音声ファイルを解析して周波数特性(パワースペクトル)を得るところまでを紹介します”
  • Developer - mozx

    iOSでオーディオやビデオを扱う場合、AVAudioSessionというサービスで音声の入出力の使い方を設定する必要がある。 しかし、AVAudioSessionについては、いちど触ったことのあるプログラマーにとって、 「なかなか思った通りに振る舞ってくれない」という感覚を持つことが多いのではないだろうか。 AudioSessionに対する理解を深めるためには、iOS機器内でのオーディオの扱いに関する 思想を理解することが大切である。 しかし、筆者はAppleの設計者ではない。当然Appleの設計の意図、真意を知っている訳ではない。 この講座で述べていることは、Appleの提供しているドキュメントを筆者の解釈、および実機に実装したときの 振る舞いなどから、その奥にあるAppleの設計思想を推測したものであり、勝手な想像や思い込みも多分に含まれている 可能性があることをご理解の上読み進んで頂

  • 1