SpotifyのWebAPIから取得できるデータを使い、国ごとに流行っている曲の傾向やグループ分けを行ってみた。 #muana #R言語 #rstats
こんにちは。 エス・エー・エス株式会社 DXサービス部の海田(かいだ)です。 先日、家族で久しぶりに図書館に出かけました。 そこで見つけたのがこの本。 (2023/01/25追記 書籍名「Magentaで開発 AI作曲」(オーム社) 斎藤喜寛 (著) ありがとうございました! https://www.ohmsha.co.jp/book/9784274227318/) AI作曲!! 昨今AIの目覚ましい技術発展はあらゆる分野に浸透しておりますが、作曲の分野でもその力を発揮しているようです。内容をパラパラ見ていたら、なんだか面白そうだし、ちょっと出来そうカモ!そしてTechBlogのネタになりそう(笑)と思って借りてみました。 ということで、今回はこの本を読んでやってみたことを書いていきたいと思います! 1.自動作曲ってこんな感じこの本の最初にこんなことが書かれています。 「わずか数十秒で曲を
AIで音楽を生成するmagentaで遊んでみました。LSTM(Long Short-Term Memory)ベースのRNN(Recurrent Neural Network)を利用したものです。いつもながらの難しい理論は置いといて、何ができるのかをまず確認です。 ネット記事を確認すると、Docker環境で実行するのが多いようですね。Docker環境は以前に構築しましたので、早速Dockerに入って実行です。 Docker Toolboxを立ち上げ、以下のコマンドを入力し、環境構築しました。docker run -it -p 6006:6006 -v /tmp/magenta:/magenta-data tensorflow/magentaプログラム類は/usr/local/binフォルダ、学習モデル(数種あり)は/magenta-modelsフォルダ内にあります。作成データは/magent
Closed Voiceing Chord Only Backing: | FM7 | E7 | Am7 | Gm7 C7 | | FM7 | E7 | Am7 | Gm7 C7 | | FM7 | E7 | Am7 | Gm7 C7 | | FM7 | E7 | Am7 | Gm7 C7 |
レシピ : 基本 :- PyTorch Profiler このレシピはどのように PyTorch profile を利用するか、そしてモデルの演算の時間とメモリ消費をどのように計測するかを説明します。 イントロダクション PyTorch は単純な profiler API を含み、これはユーザがモデルで最も高価な演算を決定する必要があるとき有用です。 このレシピでは、モデルパフォーマンスを分析するためにどのように profiler を使用するかを実演するために単純な Resnet モデルを使用します。 セットアップ torch と torchvision をインストールするために以下のコマンドを使用します : pip install torch torchvision ステップ 総ての必要なライブラリをインポートする 単純な Resnet モデルをインスタンス化する 実行時間を分析するため
フィードバックを送信 コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。 PyTorch XLA ワークロードをプロファイリングする プロファイリングにより、モデルのパフォーマンスを分析して改善できます。プロファイリングには他にも多くの要素がありますが、プロファイリングはタイミング オペレーションとして、またデバイス(TPU)とホスト(CPU)の両方で実行されるコードの一部と考えると役に立つ場合があります。このガイドでは、トレーニングや推論用にコードをプロファイリングする方法の概要を簡単に説明します。生成されたプロファイルを分析する方法の詳細については、次のガイドをご覧ください。 TPU VM 上での PyTorch XLA パフォーマンス デバッグ - パート 1 TPU VM 上での PyTorch XLA パフォーマンス デバッグ - パート 2 TPU
とあるプロジェクトでLLMを触っているが、LLMをはじめ言語のNNやHuggingFaceを触るのは初めてなので、そもそものリソース使用率を調べる 対象は日本語が使える rinna と open-calm 設定 環境はこんなところ GCE イメージ c0-deeplearning-common-cu113-v20230412-debian-10 n1-highmem-8 8コア 52GBメモリ 200GBストレージ NVIDIA T4 16GBメモリ FROM python:3.10-slim WORKDIR /app COPY . . RUN pip install \ torch \ transformers \ sentencepiece \ memory-profiler \ accelerate \ ; services: app: image: foo build: conte
論文紹介: Transformer Memory as a Differentiable Search Index (NeurIPS 2022) この記事は情報検索・検索技術 Advent Calendar 2022 の 16 日目の記事です. この記事では,NeurIPS 2022 に採択された T5 を用いた検索手法に関する Google Research の論文を紹介します.紹介する論文の情報は以下の通りです. タイトル: Transformer Memory as a Differentiable Search Index 著者: Yi Tay, Vinh Q. Tran, Mostafa Dehghani, Jianmo Ni, Dara Bahri, Harsh Mehta, Zhen Qin, Kai Hui, Zhe Zhao, Jai Gupta, Tal Schuste
自作CPUの構成をマルチコアに変更したので、いくつか問題が表面化してしまっている。例えばメモリは1サイクルでアクセスできる仮定にしていたのを、いくつかValid & Readyの方式に実装し直さなければならない。このためには、とりあえずTileLinkにDelayerを挿入したうえで1コアに絞ってデバッグした方がなにかとやりやすい。という訳でコアの数をConfigurableにする。 まずはコア数はTestHarnessでnumCoresとして宣言する。 class TestHarness()(implicit p: Parameters) extends Module { val rv_conf = new RV64IConfig val numCores = 2 これをcore_complexにパラメータとして伝える。 val ldut = LazyModule(new core_co
本記事は、2022年度の実務訓練で勤務した高橋快斗さんによる寄稿です。 はじめに はじめまして。2023年の1月から2月にかけて株式会社モルフォで実務訓練を行っていた豊橋技術科学大学の高橋です。 本実務訓練では、昨今話題のText-to-Image技術を応用したネイル画像生成アプリケーションを作成しました。このアプリケーションでは、ユーザーがネイルデザインを指定することで、自動的に画像を生成することができます。 生成画像 早速ですが、生成されたネイル画像は図1になります。 図1 生成画像例 流行のデザインのネイル画像が生成できていることが確認できます。 更に、複数のデザインの特徴を併せ持った世界初のデザインのネイル画像も生成することができます。 図2 複数のデザインを内包した生成画像の例 下記では実務訓練で取り組んだ、このような画像を生成するアプリケーションの作成の過程を記載します。 是非
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く