zen🐊 @FeelzenVr 初夏に鬱っぽくなりがちで……と友人に言ったら「それはお前ボサノバを聞け!!」「ボサノバを聞いて何もすんな!!!」と言われたので今日一日ボサノバを流して部屋でぼーっとしていたら、割と気が楽になった、んだけど、何???????? 2024-05-26 23:21:19
![初夏に気分が落ち込みがちで…と友人に言ったら「ボサノバを聞け!!」と言われた→なんで???と思うくらいQOL上がった](https://cdn-ak-scissors.b.st-hatena.com/image/square/75e68466984aca5feef32c1650d1c35dbf7e8e27/height=288;version=1;width=512/https%3A%2F%2Fs.togetter.com%2Fogp2%2F92e34cfef5dddc2202be68d8e6da83ea-1200x630.png)
Jack Wallen (Special to ZDNET.com) 翻訳校正: 編集部 2024-04-18 07:45 筆者の1日のほとんどは音楽で満たされている。文章を書くときも、ジョギングをするときも、単純な作業をするときも、音楽がそばにある。オフィスにいるときは、ターンテーブルで音楽を再生する。オフィスにいないときは、いくつかの選択肢がある(スマートフォン、Googleのスマートスピーカー、ストリーミングサーバーなど)。 今回の記事で取り上げたいのは、ストリーミングサーバーである。筆者がホームネットワーク上にストリーミングサーバーをセットアップした最大の理由は、極めて大規模なデジタル音楽コレクションを所有しており、そこには、絶版になった録音や普通のストリーミングサービスではアクセスできない録音が多数含まれていることだ。したがって、Lord Groovy And The Psych
いま最先端を行くAI歌声合成ソフトのSynthesizer VやAI音声合成ソフトのVOICEPEAKなどを手掛けるDreamtonicsが、また新たな画期的なシステム、Vocoflexなるものを発表されるとともに、そのベータ版が公開されました。これは人の歌声を10秒程度録音して、その場でAIに学習させると、誰でもその歌声にリアルタイム変換できるというユニークなシステム。WindowsやMacの環境で動かすことができ、マイクに向かって歌えばその場で変換するし、VST/AUのプラグインとしてDAWに挿せば、ボーカルトラックをその学習した人の歌声に変換することができるという、驚くべきソフトです。 単にその10秒程度録音した人の歌声に変換できるだけでなく、AIが歌声を学習し、分析した結果を独特な手法でグラフィック化するUIを採用しているのもユニークな点。その結果、人の歌声の特徴をグラフィックで表
Genius Lyrics 洋楽好きの人ならどこかで見たことあるかもしれないけれど、 ずいぶん前から使わせてもらっていてかなり便利なサイトなので改めて紹介。 その名も「Genius」という歌詞検索サイト。 genius.com ただ歌詞を調べれられるだけでなく、 歌詞の背景や隠された文脈などを調べられるというサービス。 (・・・と思ったら、すでにはてなブックマークがかなりついているので、 2015年あたりにヒップホップ界隈で注目されたっぽい感じなのかな?) SoundCloudが曲の盛り上がりで自分の好きな箇所にコメントを付けられるのとちょっと似ていて、 歌詞の一節に、ユーザーがコメントや感想・解説などを書き込めるという仕組み。 よりわかりやすく書くと、 歌詞の内容にWikipedia的に解説をみんなで追記・編集していくようなイメージ。 例えば最近、ボブディランの『欲望』を久々によく聴いて
画像生成AI「Stable Diffusion」で知られる英Stability AIは4月3日(現地時間)、テキストで作曲できる生成AI「Stable Audio 2.0」を発表した。Stable AudioのWebサイトにログインすることで無料で利用できる他、間もなくStable Audio APIでも利用できるようになる見込みだ。 Stable Audioは、同社が昨年9月に発表した音楽生成AI。リリース当初の無料版では44.1kHzで最長45秒のトラックしか生成できなかったが、バージョンアップで最長3分のフルトラックの音楽を生成できるようになった。 テキストからだけでなく、音声からも作曲できる。オーディオサンプルをアップロードし、自然言語のプロンプトでサンプルをアレンジできる。 無料では、3分の音楽を20曲まで作れる。作った音楽を入力オーディオとして利用することもできる。 旧版同様に
歌詞を与えれば作曲・演奏・歌唱と残りの全てをやってくれるAI作曲完パケサービス「Suno」。音楽制作界隈では「MIDIで吐いてくれ」との声が多く上がっています。 いい感じの音楽が出るまでガチャを引けばいいのですが、Sunoを効率化のために使いたい、アイデア出しのために利用したいんだけど、出力された音楽をいちいち手弾きで入力するのもだるい、という話です。 今回はこの解決策をご紹介しようと思います。詳しい人ならご承知のことと思いますが、改めて。 以前のコラムで紹介したように、例えばLogic ProのFlexPitchのようなピッチエディターを使えば、単音のオーディオファイルからMIDIデータを取り出すことは可能です。 実際、筆者はUVR5という音源分離ツールを使って取り出したBassトラックをFlexPitchによってピアノロール表示し、それを改めてMIDIデータとして打ち込むというのをやっ
音楽生成AI「Suno AI」がX(旧Twitter)上で話題になっている。歌詞や曲調を文章で指示するだけで音楽を自動生成するサービスで、PCやスマートフォンのWebブラウザ上から利用できる。生成した音楽の出来栄えには、プロの音楽家からも驚きの声が上がっている。 Suno AIは、米国を拠点とする音楽家とAIの専門家たちからなる米Sunoが運営するサービス。開発者の中には、米MetaやTikTokを運営する中国ByteDanceなどに所属していた人たちもいるという。利用にはGoogleやMicrosoft、Discordのアカウントが必要で、12月14日時点ではβ版を提供中。1日5回まで無料で音楽を生成できる他、有料プランもある。 早速使ってみた そのお手並みは? 記者も試しに利用してみた。メニューにある「Create」を押し、「記事を書くのがはかどる音楽を作成してください」と指示を入れた
「Midjourney」「Stable Diffusion」などの画像生成AIや、チャットAIボット「ChatGPT」をはじめ、様々なサービスが登場してきた生成AI(ジェネレーティブAI)。 現在SNSでは、「Suno AI」という新たな自動作曲AIサービスが話題です。 神前暁さんやtofubeatsさんといった第一線で活躍する音楽プロデューサーも、試しに「Suno AI」を使ってみた結果をXに投稿。 その自然な出来栄えに、神前暁さんは「アレンジやMixがそれっぽくなるのは想定内だったけどメロも70点くらいのを平気でポンポン出してくる。このサビなんて少し手を加えれば結構売れるのでは?ってレベル」と、驚きを露わにしています。 話題のSuno AIを試してみたけどヤバいですねコレは… アレンジやMixがそれっぽくなるのは想定内だったけどメロも70点くらいのを平気でポンポン出してくる。このサビな
リンク Wikipedia タミル語 タミル語(タミルご、தமிழ் Tamiḻ)は、ドラヴィダ語族に属する言語で、南インドのタミル人の言語である。 同じドラヴィダ語族に属するマラヤーラム語ときわめて近い類縁関係の言語だが、後者がサンスクリットからの膨大な借用語を持つのに対し、当言語にはそれが(比較的)少ないため主に語彙の面で異なる。 インドではタミル・ナードゥ州の公用語であり、また連邦でも憲法の第8付則に定められた22の指定言語のひとつであるほか、スリランカとシンガポールでは国の公用語の一つにもなっている。 世界で18番目に多い7400万人 13 users 56
現在リアルサウンドでは、音楽・映画・テック・ブックの4サイトを横断した特集企画「生成AIはカルチャーをどう変えるか?」を展開中だ。未知なる可能性を秘めた新技術に向けられる熱い眼差しと、各業界のエコシステムに影響を及ぼすであろう脅威へ向けられる懐疑的な眼差し。カルチャーの分野においては特に、生成AIに対して期待と不安が入り混じった見方が存在している。 生成AIの革新性は、人間が様々な創作をする上で用いてきた「ツール」に「学習し生み出す機能」が加わったことにある。さまざまな学習を重ねた生成AIと正確なプロンプト(指示文)があれば、無限に生成物を生み出すことができるのだ。これにより、クリエイティビティが強化されたり、利便性/生産性が向上する一方、使い方によっては創作を生業とするクリエイターたちの機会損失や、既存の著作物への権利侵害を生む恐れがあるとして、日本国内の音楽業界において慎重な議論が進め
米Metaは8月2日(現地時間)、テキストプロンプトから音楽や音声を生成する生成AIツールスイート「AudioCraft」をオープンソース化したと発表した。トレーニングに使うデータの多様化もオープンソース化のねらいの1つだ。 AudioCraftは、エフェクトやサウンドスケープを生成する「AudioGen」、テキストからメロディーを生成する「MusicGen」、ニューラルネットワークベースのオーディオ圧縮コーデックの「EnCodec」の3つのコンポーネントで構成されている。MusicGenは単体で6月にオープンソース化されている。EnCodecは昨年11月に公開済みだが、最近の改良でより高品質な音楽生成が可能になったという。 MusicGenは、Metaが所有する音楽と、「この目的のために特別にライセンスを取得した音楽」をあわせて2万時間分のデータでトレーニングしたとしている。 Metaは
※ 今回絡まれ被害に遭ったファンの方に対して、無神経な書き方をしすぎてしまったので、ご指摘を鑑み何箇所か訂正・修正を入れました。ごめんなさい。&ご指摘いただいた方に感謝。 7/21(金)7時 ※ あと、(言うまでもないのか言うのが当然なのかわかりませんが)この記事に書かれていることは筆者の主観による決めつけです。実は全然違うかもしれません。「わかりやすい」事は常に危うさを孕むものであり、書いた文章の責任はもちろん私にありますが、一応ご留意くださいませ……。 7/22(土)9時 ※ ROLLYことローリー寺西がTwitterでファンに粘着質に絡んだことで炎上した。 togetter.com が、多分これ、先日の山下達郎の件と同じで、よく知らない人が見て抱く印象と、音楽ファンから抱く印象が、ちょっと違うやつなのね。達郎もローリーも100%悪いんだけど、その結論は変わらないんだけど。 ROLLY
テキストから画像を自動で生成する「Stable Diffusion」や「DALL・E」のように、入力したテキストの通りに音楽を作曲する自動作曲AI「MusicLM」をGoogleの研究チームが開発しました。 [2301.11325] MusicLM: Generating Music From Text https://doi.org/10.48550/arXiv.2301.11325 MusicLM https://google-research.github.io/seanet/musiclm/examples/ Google created an AI that can generate music from text descriptions, but won’t release it | TechCrunch https://techcrunch.com/2023/01/27/g
このDiff-SVCを簡単に実行できるGoogle ColabのNotebookが1月23日に公開停止となってしまったのです。ですので、前回紹介したやり方での実行はできなくなります。筆者はGoogle Colabからローカルにコピーしているのでこれまで通りに使えますが、新規に手軽にやろうという人への道は一時的にではありますが、閉ざされたことになります。 ▲筆者はGoogle ColabのNotebookをローカルに保存しているので現在も利用可能 なぜこういうことになったかというと、それは悪質な利用者のせいです。 自分の音源や、権利を所有する、許可をもらっている人物の声であれば問題ないのですが、前回言及したように、よく知られている歌手、セレブ、VOCALOIDなど既存のバーチャルシンガーの音源などを勝手にDiff-SVCでAI音源にし、歌わせたものを例えば「AIアリアナ・グランデが~を歌った
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く