星野源さんが2021年6月15日放送のニッポン放送『YOASOBIのオールナイトニッポンX』に出演。使用しているDTMソフト・LogicについてYOASOBIのお二人と話していました。 Apple、Logic Pro X 発表以来、最大規模のアップデートを Logic に実施 – Apple (日本) https://t.co/kDVllNJ6W3 "とりわけエレクトロニックミュージックの制作に携わるアーティストには非常に大きなリリース" — なつき@Webスクール動画開催 (@Stocker_jp) May 13, 2020 (Ayase)じゃあ、僕の質問をしてもいいですか? (星野源)はい。 (Ayase)これはすごい作曲者的な質問なんですけども。作曲ソフトは何を使われてますか? (星野源)ああ、いいですね。こういう話ね。僕は、Logicです。 (Ayase)おっ、一緒だ! (ikur
概要 2023年10月28日、「弁財天」というAIメロディー生成コンテストにチームメンバーのCapchii(X, Youtube) と一緒に出場した。 コンテストは、運営から伴奏のデータが提供され、それに対して各チームは制限時間内に自身のメロディー生成システムを実行し、生成されたメロディーが聴講者の投票によって評価されるものとなっている。結果として、我々のチームは2位(7チーム中)を獲得。 私たちが心がけていたポイントは、王道なメロディーの作成やメロディーの選定、そして後処理を施すことだった。 本ブログでは、このイベントについての振り返りを行う。実際に生成したメロディーや出場しての感想等を提供する。 概要 対象の読者 大会の仕組み 各対戦の結果と生成したメロディー 初戦 準決勝 決勝 解法と敗因 解法LT 我々の思う良いメロディーとは 敗因(と推測されること) 感想 2023-10-30追
SpotifyのWebAPIから取得できるデータを使い、国ごとに流行っている曲の傾向やグループ分けを行ってみた。 #muana #R言語 #rstats
AIで音楽を生成するmagentaで遊んでみました。LSTM(Long Short-Term Memory)ベースのRNN(Recurrent Neural Network)を利用したものです。いつもながらの難しい理論は置いといて、何ができるのかをまず確認です。 ネット記事を確認すると、Docker環境で実行するのが多いようですね。Docker環境は以前に構築しましたので、早速Dockerに入って実行です。 Docker Toolboxを立ち上げ、以下のコマンドを入力し、環境構築しました。docker run -it -p 6006:6006 -v /tmp/magenta:/magenta-data tensorflow/magentaプログラム類は/usr/local/binフォルダ、学習モデル(数種あり)は/magenta-modelsフォルダ内にあります。作成データは/magent
これは「Maidcore(メイドコア)」と呼ばれる音楽ジャンルで、近年YouTubeなどネットで徐々に注目を集めています。 これらの音楽は一体どのようなもので、どのようにして生まれたのでしょうか。 この記事では「メイドコア」について、下記の順番で説明していきます。 始まりは日本だった 1. メイドコア誕生の歴史 「メイドコア」のメイドの起源は、日本の「ふたば☆ちゃんねる」まで遡ります。 2001年に掲示板「2ちゃんねる」の閉鎖騒動が起きた時、その避難所として作られた画像掲示板が「ふたば☆ちゃんねる」です。 元々は避難所だったのが、独自の文化を形成し、発展していきます。 ここでは複数の掲示板が存在し、特に人気なのが「二次元裏@ふたば」、通称「虹裏」。 その虹裏で、2004年に「メドイさん」と書かれたメイドの絵が貼られます。 全てはここから始まった やがて彼女は「めどいさん」として、「面倒くさ
こんにちは。 今や音楽は誰でも作れるようになりました。 パソコンやスマホがあれば簡単にいつでも誰でも「ミュージシャン」になれるんです。 パソコンで音楽を作るときに一番最初にするのは「作曲」すること。まずは曲を作る必要がありますよね! 曲ができないと、編曲もレコーディングもできないわけです。 作曲って複雑な音楽理論やテクニックを習得しなきゃできないの? って思ってしまう方多いと思います。 でも大丈夫です! これからお話しする内容を把握して、手に入れてしまえば、難しい勉強はする必要ありません。 実は僕たちが聴く音楽ってある程度パターンがあってそれに沿ってほとんどの曲が作られています。 その「パターン」とは「コード進行」です。 「テンプレート」のようなものですね。 その型にはめ込んで作曲をすれば簡単にヒット曲が作れちゃうかも!? 今日は邦楽定番コード進行パターンを5つご紹介します。 コードってそ
先日、cakewalk by bandlabというDAWをインストールしたのですが、音を鳴らすと雑音がぶつぶつとなってしまいます。いったい何が問題なのでしょうか?有識者の方教えてください。 ちなみにヘッドホンで聞いていますがyoutubeなどはきれいに聞こえるのでやはりソフト...
Googleラボが、MusicLMなるものを発表しました。文章で指示した通りの音楽を生成してくれるAIです。 リンク先の音楽を聴いてみると、たしかに指示通りの音楽が、十分自然な品質で生成出来ているように聞こえます。凄いですね。 DALL.E 2やStable Diffusionなどの画像生成技術が世間を騒がせていた頃から繰り返し言われてきた、「そのうち音楽生成も来る」みたいな観測がようやく現実になったと言えるでしょう。 当然ながら、新しい技術は水を与えて待てば生えてくるわけではなく、実際は手と頭を動かし、あらゆる課題をねじ伏せなければ実現されません。未来予想トークで風呂敷を広げまくるよりも、リアルな課題解決の過程をじっくり研究したほうが楽しいと思います。 MusicLMは、Googleラボが去年発表した研究成果AudioLMとMuLanをベースにしており、AudioLMはさらにSoundS
MusicLM: Generating Music From Text |paper|dataset| Andrea Agostinelli, Timo I. Denk, Zalán Borsos, Jesse Engel, Mauro Verzetti, Antoine Caillon, Qingqing Huang, Aren Jansen, Adam Roberts, Marco Tagliasacchi, Matt Sharifi, Neil Zeghidour, Christian Frank Google Research Abstract We introduce MusicLM, a model generating high-fidelity music from text descriptions such as "a calming violin melody bac
今年初め、Googleが考案した音楽生成AI「MusicLM」を、関連研究から順に追って解読する記事を書きました。 実はGoogleがSoundStreamやAudioLMを発表するのを後追いするように、Meta AIもEnCodecやAudioGenと名付けた音生成モデル研究発表を出してきました。そして今回、MusicLMと比肩するtext-to-audio音楽生成モデルのMusicGenを発表しました。 Googleの先行研究と敢えて張り合うような名前を付けるのは何か意図があるのでしょうか… MusicGenはMusicLMと比較して以下の特徴があります。 文脈特徴量を使わず、音響特徴トークン列を直接推定する。 音響特徴トークン列の推定に並列化手法を導入している。 テキスト条件付けのほかに、無条件・メロディー条件付け生成もできる。 オープンソースである(ソースコードはMIT、学習済みモ
3 月 9 日はミクの日! ということで, まえまえからちょっと疑問に思っていることについて, 興味深い解説を読みましたので, 紹介したいと思います. その疑問というのは,「ボカロ曲に共通の特徴ってあるのか?」ていうことです. 小難しい話を一旦脇に置くと, ボーカロイドって, シンセサイザーだし, 楽器なんですよね. シンプルに言って. わたしもものすんごく底辺ですが, いちおう, ボカロ P で, ここ 2, 3 年は. こんなに面白い楽器はないぞ, ていう感じで日々接しています. だから, ボカロ曲に共通の特徴って, まあ, ほとんど同語反復ですけど, ボーカロイドを使用しているくらいしかない (初音ミクで「4’33″」を演奏した, みたいなのもあるんですけど, その辺は, ちょっと今回は違うかな, ていうことで外します). ピアノ曲ってピアノを使用した楽曲の総称です, て言っているよ
FFRC-0340 | 2022/12/31 | C101 西 か-31a "flap+frog" 会場頒布価格:¥1000 01:Un Fiore Rosa (TakeB2) 原曲:青空の影 02:HARVEST 原曲:稲田姫様に叱られるから 03:ヒジリB明朝Pro 原曲:感情の摩天楼 ~ Cosmic Mind. 04:PROPELLER 原曲:芥川龍之介の河童 ~ Candid Friend 05:PLATINO 原曲:亡き王女の為のセプテット 06:肌が、咽ぶ 原曲:デザイアドライブ 07:session1884 原曲:明治十七年の上海アリス 08:easy vacation 原曲:ヒロシゲ36号 ~ Neo Super-Express 09:ontembaar2 原曲:おてんば恋娘の冒険 10:片手
QMULのBen Hayes氏らが、勾配降下法で周波数推定を行う手法を論文で発表しました。ICASSP2023に投稿したそうです。 きわめてシンプルな手法なのですが、機械学習系音声合成にとってはたいへん重要な成果だと思うので、紹介します。 論文リンク:Sinusoidal Frequency Estimation by Gradient Descent ソースコード:https://github.com/ben-hayes/sinusoidal-gradient-descent 背景:DDSPの限界 DDSP(Differentiable Digital Signal Processing)とは、微分可能な計算式を持つDSPモジュールをDNNに組み込んで機械学習をやる手法で、Google Magentaプロジェクトが最初に打ち出したアイデアです。 今ではもうDDSPシリーズと呼べるほど多様
はじめに 第1章 AIで作曲できる音楽機械学習ライブラリMagenta 第2章 Magenta環境構築 AI作曲実践準備 第3章 単音のシンプルなメロディーをつくる Melody RNN 第4章 ドラム演奏の作曲を行う Drums RNN 第5章 3パートのバンド演奏作曲 MusicVAE 第6章 コード進行に沿ったアドリブメロディーの作曲 Improv RNN 第7章 バッハ風合唱曲の作曲を行うPolyphony RNN 第8章 現代音楽のような複雑な和音の作曲 Pianoroll RNN 第9章 高度なピアノ演奏の作曲 Performance RNN 第10章 音楽データの学習方法と学習済みデータの作成 第11章 Magenta開発・独自モデルの作成 はじめに 第1章 AIで作曲できる音楽機械学習ライブラリMagenta 1.1 機械学習を使用した作曲の概要と基礎知識 1.1.1 わず
自動作曲とは? 最近いろいろなところで人工知能が使われるようになってきていて、作曲もできるそうです。 そこで、作曲できる人工知能「magenta」を使って自動作曲してみました。 環境構築やってみよう 必要となるものは下記の3つです。 ・TensorFlow:機械学習ライブラリ ・magenta:音楽などをTensorFlowを使って機械学習するライブラリ ・bazel:ビルドツール これらを下記のマシンに投入します。 <環境> ・MacBook Pro (13-inch, Mid 2012) ・CPU:2.9 GHz Intel Core i7 ・メモリ:16 GB 1600 MHz DDR3 ・OS:mac OS Sierra <インストール> TensorFlow 公式サイトを参照してインストールしました。 インストールコマンドはこちら。 pip install tensorflow
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く