今年初め、Googleが考案した音楽生成AI「MusicLM」を、関連研究から順に追って解読する記事を書きました。 実はGoogleがSoundStreamやAudioLMを発表するのを後追いするように、Meta AIもEnCodecやAudioGenと名付けた音生成モデル研究発表を出してきました。そして今回、MusicLMと比肩するtext-to-audio音楽生成モデルのMusicGenを発表しました。 Googleの先行研究と敢えて張り合うような名前を付けるのは何か意図があるのでしょうか… MusicGenはMusicLMと比較して以下の特徴があります。 文脈特徴量を使わず、音響特徴トークン列を直接推定する。 音響特徴トークン列の推定に並列化手法を導入している。 テキスト条件付けのほかに、無条件・メロディー条件付け生成もできる。 オープンソースである(ソースコードはMIT、学習済みモ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く