Use and download pre-trained models for your machine learning projects.
はじめに ディープラーニングというワードは聞いたことがあるけどどこから手を出したら良いかわからないという人向け。 PythonとかCNNとかKerasとかさわったことない初心者が画像分類やるぞという記事です。 SIGNATE Data Science Competitionに参加して初めてディープラーニングを触ってみたところとっつきやすかったので知見を残したいというのが本記事投稿のきっかけです。 Google Colaboratoryとは Google Colaboratory(以下、Colab)は、クラウドで実行されるJupyterノートブック環境である。 機械学習などの基本的な環境構築は設定済みで、Tesla系のK80 GPUを無料で最大12時間まで使えるという神環境。 機械学習初心者からそれなりの規模までの学習の実行を行うのに適している。 今回やること Colabを初めて使うときの設
やること(概要) 1. 画像データの収集 2. データセットの作成(画像データの変換) 3. モデルの作成 & 学習 4. 実行(コマンドライン) 動作環境 macOS Catalina 10.15 beta Python 3.6.8 flickapi 2.4 pillow 6.0.0 scikit-learn 0.20.3 google colaboratory 実施手順 1. 画像データの収集 ・3種類(りんご、トマト、いちご)の画像分類を実施するため、画像ファイルをflickrから取得 ・flickrによる画像ファイルの取得方法は前回記事で書いたこちら ・それぞれ300枚の画像ファイルを取得 ・検索キーワードは、「apple」、「tomato」、「strawberry」を指定 ・flickrからダウンロードした不要なデータ(検索キーワードと関係ない画像ファイル)は目で見て除外しておく
はじめに 私は文系の私立大学生です。 機械学習初学者の中の更に初学者です。 そんくらいわかれや!とツッコミたくなる箇所があるかもしれませんが、お手柔らかにお願いします。 ColaboratoryでDCGANを試みる 本記事は、私が学習した流れに沿って記述しています。 まずColaboratoryに触れる 紆余曲折あって機械学習で画像生成にチャレンジ!となった私ですが、 GPUも積まれてないWindowsラップトップしかありませんでした。 そこでGoogle Colaboratoryの力をお借りすることにします。 こんな凄いサービスが無料で使えるなんて、いい時代ですね。 Colaboratory自体の使い方はこれらを参考に覚えました 1. はじめに — ディープラーニング入門:Chainer チュートリアル Google Colaboratoryで初めての機械学習 - Qiita 【秒速で無
TensorFlowを初期の頃から触っていて define-and-run の流儀にはそれなりに慣れてしまっていたけど、そろそろTensorFlowも2.0がreleaseされそうだし(2019.09時点で 2.0rc1) 新しいinterfaceも触っておかないと、と思って勉強してみた。 Effective TensorFlow 2.0 を読むと、major changesとして "Eager execution"、recommendationsとして"Keras layers and models"が紹介されている。 これからの時代はKeras APIを使ってEager executionでやっていく必要がありそうだ。 お題: 将棋駒画像の分類 昨年くらいから将棋の画像認識をやろうと思って 駒の画像データセットを作成 していた。今回はこれを使う。 各駒14種の先手・後手で28種、空白マ
ちなみに上記のツイート「Google Colobratory」のとこ「Google Colaboratory」の誤字です。すみません また、たくさんのチュートリアルがセットになったマガジンの方がお得なので、他の機械学習のチュートリアルも興味ある方は、以下も検討してみて下さい。 本チュートリアルで出来るようになること ディープラーニングを使って、自分だけの画像認識の学習モデルを作る方法が学べます。 具体的には、学習させたい画像の収集(スクレイピング)や、画像の前処理(ラベル付け)、学習、判別を行います。 本チュートリアルでは、例としてたくさんのカメラと犬と猫の画像を学習させた後、以下のような画像を見せて判別を行います。 以下のようにカメラ(camera)と判別されています。 このような画像判別の技術を使うと、画像を元に何かの良し悪しを判定する機械を作ることができます。例えば、世の中には、ディ
はじめに 今、機械学習の勉強もかねて敵対的生成ネットワーク(GAN)を活用して LINEスタンプの自動生成を試みようと頑張っています。 LINEスタンプをDeepLearningで自動生成してみる【Part 1】 しかし私が所有しているマシンは貧弱なMacbookAirのみ。 実際にDeep Learningのサンプルコードを実行してみると動作にかかる時間が想像以上でした。 (丸3日かけて、期待した結果が得られないこともしばしば) そこで、学習高速化のためにAWSやMicrosoft Azureなどのクラウドサービスに課金して、一時的にGPUを積んだインスタンスを利用しようと検討してしました。 機械学習を試すためには課金が必要? 結論から言うと、私がやろうとしている程度のことであれば課金する必要はありませんでした。 Google Colaboratoryを使用すれば、無料で十分高速にDee
TensorFlow2.0とGoogle Colaboratoryの無料TPUを使って、DCGANを実装しました。 訓練経過の様子 pic.twitter.com/2qXowYMk6t — しこあん@『モザイク除去本』好評通販中 (@koshian2) October 21, 2019 何をやったか Google ColabのTPU+TF2.0でCelebA(約20万枚)をDCGANで生成 TF1.X系のTPUでは、同時に実行可能なグラフは1個の制約があったため、GANの訓練が容易ではなかった(こちらの記事にある通り、不可能であったわけではない。しかし、低レベルAPIが必須で決して容易ではなかった)。TF2.X系のTPUでは、もっと容易にGANを実装できた。 DCGANの論文通りのモデル(パラメーター数:G=12.7M, D=11.0M)で。64x64の画像20万枚を、1エポックを40秒程
TensorFlow2.0の関数を使い、画像にモザイクをかける方法を紹介します。OpenCVやPILでの書き方はいろいろありますが、TensorFlowでどう書くかはまず出てきませんでした。GPUやTPUでのブーストも使えます。 モザイク付与のアルゴリズム いろいろあるとは思いますが、自分が使っているのは次の方法です。 Nearest Negihbor法で1/Nの解像度にダウンサンプリング(Nは元の画像の解像度にあわせて適当に調整) 適当なサイズのカーネルのガウシアンぼかしをかける Nearest Neighbor法でN倍にアップサンプリング 環境:TensorFlow2.0.0 実装 この画像を「ramen.jpg」とし、モザイクをかけてみます。 import tensorflow as tf import matplotlib.pyplot as plt import numpy as
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く