サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
ドラクエ3
tensorflow.classcat.com
◆ クラスキャット は人工知能・テレワークに関する各種サービスを提供しています。お気軽にご相談ください : 人工知能研究開発支援 人工知能研修サービス(経営者層向けオンサイト研修) テクニカルコンサルティングサービス 実証実験(プロトタイプ構築) アプリケーションへの実装 人工知能研修サービス PoC(概念実証)を失敗させないための支援 Keras 2 : examples : 自然言語処理 – アクティブラーニングによるレビュー分類 Description : レビュー分類を通してアクティブラーニングの利点を実演します。 イントロダクション データ中心の機械学習の発展とともに、アクティブラーニングは企業や研究者の間で人気が高まっています。アクティブラーニングは、 競争力のあるスコアを獲得するために結果としてのモデルがより少ない総量の訓練データだけを必要とするように、ML モデルを徐々に
TensorFlow 2.0 Alpha : ガイド : Keras : 簡単な概要 (翻訳/解説) 翻訳 : (株)クラスキャット セールスインフォメーション 作成日時 : 03/14/2019 * 本ページは、TensorFlow の本家サイトの TF 2.0 Alpha の以下のページを翻訳した上で適宜、補足説明したものです: Keras: a quick overview * サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。 * ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。 ガイド : Keras : 簡単な概要 tf.keras をインポートする tf.keras は Keras API 仕様 の TensorFlow 実装です。これはモデルを構築して訓練するための
Keras は深層学習モデルを構築してビルドするための高位 API です。それは、次の 3 つの主要な優位点を持ち高速なプロトタイピング、先進的な研究、そしてプロダクションのために使用されます。 ユーザ・フレンドリー Keras は一般的なユースケースのために最適化された単純で、首尾一貫したインターフェイスを持ちます。それはユーザ・エラーのために明瞭でアクション可能なフィードバックを提供します。 モジュール式で組み立て可能 Keras モデルは構成可能なビルディングブロックを一緒に接続することにより作成され、殆ど制限はありません。 簡単に拡張 研究のための新しいアイデアを表わすためにカスタム・ビルディングブロックを書いてください。新しい層、損失関数を作成し、最先端技術のモデルを開発してください。 tf.keras をインポートする tf.keras は Keras API 仕様 の Ten
TensorFlow : Programmer’s Guide : スレッディングとキュー (翻訳/解説) 翻訳 : (株)クラスキャット セールスインフォメーション 更新日時 : 09/10/2017; 07/26/2016 作成日時 : 03/03/2016 * 本ページは、TensorFlow 本家サイトの Programmer’s Guide – Threading and Queues を翻訳した上で 適宜、補足説明したものです: https://www.tensorflow.org/programmers_guide/threading_and_queues * (obsolete) 本ページは、TensorFlow 本家サイトの How To – Threading and Queues を翻訳した上で 適宜、補足説明したものです: https://www.tensorflo
TensorFlow : Mobile : モバイル配備のためのモデルを準備する (翻訳/解説) 翻訳 : (株)クラスキャット セールスインフォメーション 作成日時 : 12/17/2017 * 本ページは、TensorFlow の本家サイトの Mobile – Preparing models for mobile deployment を翻訳した上で 適宜、補足説明したものです: https://www.tensorflow.org/mobile/prepare_models * ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。 訓練中にモデル情報をストアするための要件は、モバイルアプリケーションの一部としてそれをリリースすることを望む時には非常に異なるものになります。このセクションでは、訓練モデルから製品
TenosorFlow : 画像分類 : ResNet, Inception-v3, Xception 比較 作成 : (株)クラスキャット セールスインフォメーション 日時 : 05/17/2017 ImageNet のような現実的なサイズのデータセットに対して既存の CNN モデルを利用する場合、Inception を利用するか ResNet を利用するか選択に迷うことも多いでしょう。更には Xception も選択肢に入れることが可能になりました。 そこで比較的モデルの規模感が類似している Inception-v3, ResNet-50 そして Xception を定番の2つのデータセットで訓練して損失と精度グラフを比較してみました。(参考のために AlexNet も試しています。) * Inception-v4 (Inception-ResNet) についてはまたいずれ試す予定です
TensorFlow によるニューラルネットワークと scikit-learn の各種分類器について 線形分離ができないデータセットについて決定境界を描画して視覚的に比較してみました。 scikit-learn については代表的な分類器を、TensorFlow については基本的な MLP を活性化関数を変えて試しています。 データセットは以前にも使った sklearn.datasets.make_moons で、データポイント数は 500 ノイズは 0.1 です。 プロットすると以下のような図になります : scikit-learn の分類器 scikit-learn の代表的な分類器をデフォルト・パラメータで順繰りに試してみました : Gaussian NB, K-近傍法, 決定木, Random Forest, 線形 SVM, SVM, Gaussian Process, AdaBoo
作成者 :(株)クラスキャット セールスインフォメーション 最終更新日 : 01/20/2019 ; 作成日 : 01/13/2019 ClassCat® TF/ONNX Hub とは 「Class…
TensorFlow : Tutorials : GPU を利用する (翻訳/解説) 翻訳 : (株)クラスキャット セールスインフォメーション 更新日時 : 09/15/2017 作成日時 : 02/12/2016 * 本ページは、TensorFlow 本家サイトの Tutorials – Using GPUs を翻訳した上で適宜、補足説明したものです: https://www.tensorflow.org/tutorials/using_gpu * (obsolete, リンク切れ) 本ページは、TensorFlow の本家サイトの How To – Using GPUs を翻訳した上で 適宜、補足説明したものです: https://www.tensorflow.org/versions/master/how_tos/using_gpu/index.html#using-gpus *
深層学習 TensorFlow ベースの高速な一般物体検出ソリューション 「ClassCat® ObjDetector v1.0」を2017年2月から提供開始 – マルチクラウドでサービス提供 / 人工知能研究開発支援サービス – 株式会社クラスキャット(代表取締役社長:佐々木規行、AI研究所:茨城県取手市)は、米 Google 社によりオープンソース化された深層学習フレームワーク TensorFlow をベースとし、最新の人工知能・コンピュータビジョン技術と GPU (Graphics Processing Unit) を利用して高速化を図った、一般物体検出ソリューション新製品「ClassCat® ObjDetector v1.0」を2017年2月から提供開始することを発表致しました。一般物体検出は画像上の複数種類の物体の位置を特定してクラス分類することを可能にする、応用範囲が広い技術で
Recurrent Neural Networks (1) – RNN への序説 (翻訳/要約) * Recurrent Neural Networks Tutorial, Part 1 – Introduction to RNNs の簡単な要約です。 * 原文の図を参照しながらお読みください。 チュートリアルの一部として RNN ベースの言語モデルを実装します。言語モデルのアプリケーションは2つの fold を持ちます : 最初に、現実世界で起きることの尤もらしさをベースに任意の文に点数をつけることを可能にします。これは文法的、意味的な正確性の尺度を提供します。そのようなモデルは典型的には機械翻訳システムの一部として使用されます。2つ目に、言語モデルは新しいテキストの生成を可能にします。(よりクールなアプリケーションでしょう。)Shakespeare 上で言語モデルを訓練すれば Shak
TensorFlow による音楽ジャンル分類を行なってみました。 題材は定番の GTZAN ジャンル・コレクションです。10 のジャンル(ブルース、クラシック、カントリー、ディスコ、ヒップホップ、ジャズ、メタル、ポップ、レゲエ、ロック)に分けられた wav ファイルを分類します。各ジャンルは約 30 秒間の wav ファイルを 100 個ずつ保持しています。 ジャンル分けに微妙感がありますが、データセットは 2002 年のものなのでそこは目をつぶります。 この問題は必ずしも易しくありませんので、今回は基本編として簡単なアプローチのみを取ります。生データで確認後、FFT(高速フーリエ変換)を利用して PSD(パワースペクトル密度)を計算して特徴ベクトルとします。また精度は Top-N で計測します。 生データでトレーニング 最初に生データ入力でのトレーニングを考えます。 sox(音声処理汎用
TensorFlow Word2Vec による日本語テキスト解析 自然言語処理の基本と言える Word2Vec については TensorFlow のチュートリアル 単語のベクトル表現 / Word2Vec がありますが、まだ日本語テキストで試していなかったので青空文庫の源氏物語(訳: 與謝野晶子)を題材に解析してみました。桐壺から夢浮橋の帖までの全テキストを使用しています。 Wikipedia によれば … 『源氏物語』は平安時代中期に成立した日本の長編物語、小説である。文献初出は1008年(寛弘五年)でこの頃には相当な部分までが成立していたと思われる。 母系制が色濃い平安朝中期(概ね10世紀頃)を舞台に、天皇の親王として出生し、才能・容姿ともにめぐまれながら臣籍降下して源氏姓となった光源氏の栄華と苦悩の人生、およびその子孫らの人生を描く。通説とされる三部構成説に基づくと、各部のメインテー
基本モデルと実装 RNN (Recurrent Neural Network) は自然言語処理分野で最も成果をあげていますが、得意分野としては時系列解析もあげられます。定番ですが Yahoo Finance が Web で提供している株価情報をベースに RNN で株価予測をしてみました。 使用した RNN ネットワークのアーキテクチャは今回はシンプルなものとして深く積層せずに LSTM と GRU で個別に試しています。window サイズは取り敢えず 10 としましたが再考は必要です。実装はもちろん TensorFlow ですが、MAE (Mean Absolute Error, 平均絶対誤差) の算出には sklearn を使用しています。 提供される情報カラムは Daily で Open, High, Low, Close, Volume, Adj Close ですが、今回は Adj
TensorFlow による、SVHN & ナンバープレート認識 CNN & Street View House Numbers (SVHN) 自動車のナンバープレートの認識を試してみますが、先に、やはり multi-digit の認識問題である SVHN を片付けておきます。TensorFlow のチュートリアル : 畳み込み ニューラルネットワーク では CIFAR-10 を扱っていましたが、最後に次のような課題がありました : 課題 : Street View House Numbers (SVHN) データセットをダウンロードしてください。CIFAR-10 チュートリアルを fork して入力データとして SVHN と交換しましょう。予測性能を改善するためにネットワークアーキテクチャを適合させてください。 SVHN Format 2 の Cropped Digits データセットを
HuggingFace Transformers 4.6 : 上級ガイド : 事前訓練モデル (翻訳/解説) 翻訳 : (株)クラスキャット セールスインフォメーション 作成日時 : 05/16/2021 (4.6.0)…
深層 CNN については既に AlexNet と VGG を TensorFlow で実装して試してみましたが、締めくくりに GoogLeNet の実装に挑戦してみます。GoogLeNet は言うまでもなく、ILSVRC-2014 (ImageNet Large Scale Visual Recognition Challenge) の分類問題で優勝したネットワークです。 もちろん最新版の Inception-v3 については ImageNet によるトレーニング済みのモデルがダウンロード可能で、既に Android に組み込む ことができることも確認済みです。 参考 : トレーニング済みモデルの再利用方法については TensorFlow : Tutorials : 画像認識 を参照してください。 また自前のデータでトレーニングする場合でも fine-tuning すれば十分かもしれません
Google Cloud Machine Learning がパブリック・ベータになった旨のお知らせを頂きましたのでさっそく試してみました。サービスの概要は以下に記されています : Google Cloud Big Data and Machine Learning Blog 要約すれば、Google Cloud Machine Learning は GCP (Google Cloud Platform) と統合され、Google Cloud Dataflow、BigQuery、Cloud Storage そして Cloud Datalab のようなクラウド・コンピューティング・ツールと TensorFlow に渡るリッチな環境をスケールして作成可能なフルマネージドサービスになります。 また、新しい特徴として HyperTune があります。これは自動的に予測精度を改善します。モデルのため
TensorFlow : Get Started : ML 初心者向けの MNIST (翻訳/解説) 翻訳 : (株)クラスキャット セールスインフォメーション 更新日時: 04/13, 03/19/2017; 07/14, 06/26/2016 作成日時 : 01/26/2016 * 本家サイトのドキュメント構成の変更に伴い、本ページは以下のページをベースにするよう変更し、 また原文の加筆や変更に合わせて翻訳文も更新しました (03/19/2017) : https://www.tensorflow.org/get_started/mnist/beginners * (obsolete) 本ページは、TensorFlow の本家サイトの Tutorials – MNIST For ML Beginners を翻訳した上で 適宜、補足説明したものです: (リンク切れ) https://ww
ニューラルネットワークと深層学習 (2) どのように backpropagation ( 誤差逆伝播 )アルゴリズムが動作するか(翻訳) * Neural Networks and Deep Learning CHAPTER 2 How the backpropagation algorithm works の翻訳です。 * 1章前編 – MNIST 。 前章 ではニューラルネットワークが重みとバイアスを確率的勾配降下アルゴリズムを使用してどのように学習するかを見ました。けれども、その説明には隔たりがありました : どのようにコスト関数の勾配を計算するかの議論をしませんでした。それは非常に大きな隔たりです!この章ではそのような勾配を計算するための速いアルゴリズム、backpropagation として知られるアルゴリズムを説明します。 backpropagation アルゴリズムは元々は
多くの人々は努力なしにそれらの数字を 504192 として認識します。その容易さは当てになりません。私たちの脳の各半球の中では、人間は V1 として知られる一次視覚野を持ち、これは 140 ミリオンのニューロンを含み、それらの間には 10 ビリオンの接続を伴います。そして人間の視覚野は V1 だけでなく、視覚野のシリーズ全体 – V2, V3, V4, と V5 – を含みます、これらはより複雑な画像処理を順次行ないます。私たちの頭には、何百ミリオン年を超えた進化で調整され、そして視覚的な世界を理解するために素晴らしく適応した、スーパーコンピュータが持ち込まれています。手書き数字認識は簡単ではありません。むしろ、私たち人間は目が私たちに見せるものを理解することに驚くほど長けています。しかしほとんど全てのワークは無意識に行なわれています。そして私たちの視覚システムがどれほどタフな問題を解決し
上の図の各ボックスは RNN のセルを表しています、より一般的には GRU セルまたは LSTM セルです (それらの説明については RNN チュートリアル を参照)。エンコーダとデコーダは重みを共有することができますがあるいは、より一般的に、異なるパラメータセットを使用することもできます。多層セルは sequence-to-sequence モデルでも成功的に使用されています。例えば翻訳のために Sutskever et al., 2014 (pdf)。 上に描かれた基本モデルでは、デコーダに渡される唯一のものとして、全ての入力は固定サイズの状態ベクタにエンコードされなければなりません、デコーダにより直接的な入力へのアクセスを可能にするため、attention メカニズムが Bahdanau et al., 2014 (pdf) で紹介されました。私たちは attention メカニズム
データセットはまた、どの数字かを教えてくれる各画像へのラベルを含みます。例えば、上の画像へのラベルは 5, 0, 4 そして 1 です。 このチュートリアルでは、画像を見てどの数字であるか予測できるようにモデルを訓練していきます。我々の目的は TensorFlow の利用に足を踏み入れることですので、非常に簡単なモデルから始めます、これは Softmax 回帰と呼ばれます。 このチュートリアルのコードは非常に短く、全ての興味深いことはわずか3行の内に発生します。しかし背後のアイデアを理解することは非常に重要です : どのように TensorFlow が動作するか、そして機械学習の中心的な概念です。それ故に注意深くコードに取り組んでいきましょう。 MNIST データ 【補遺】MNIST データの扱いについては、先に TensorFlow : MNIST データ・ダウンロード (コード解説)
TensorFlow : Programmer’s Guide : データを読む (翻訳/解説) 翻訳 : (株)クラスキャット セールスインフォメーション 更新日時 : 04/26/2017; 07/26/2016 作成日時 : 02/12/2016 * 本家サイトのドキュメント構成の変更に伴い、本ページは以下のページをベースにするよう変更し、 また原文の加筆や変更に合わせて翻訳文も更新しました (04/26/2017) : https://www.tensorflow.org/programmers_guide/reading_data * (obsolete) 本ページは、TensorFlow の本家サイトの How To – Reading data を翻訳した上で 適宜、補足説明したものです: (リンク切れ) https://www.tensorflow.org/versions
TensorFlow : Guide : TensorBoard : グラフ視覚化 (翻訳/解説) 翻訳 : (株)クラスキャット セールスインフォメーション 更新日時 : 07/14/2018; 09/12/2017 作成日時 : 02/12/2016 * TensorFlow 1.9 でドキュメント構成が変わりましたので調整しました。 * 本ページは、TensorFlow 本家サイトの Guide – TensorBoard – Graph Visualization を翻訳した上で 適宜、補足説明したものです: https://www.tensorflow.org/guide/graph_viz * (obsolete, リンク切れ) 本ページは、TensorFlow 本家サイトの Get Started – TensorBoard: Graph Visualization を翻訳し
TensorFlow : Guide : TensorBoard: 学習を視覚化する (翻訳/解説) 翻訳 : (株)クラスキャット セールスインフォメーション 更新日時 : 07/14/2018; 09/12/2017 作成日時 : 02/11/2016 * TensorFlow 1.9 でドキュメント構成が変わりましたので調整しました。 * 本ページは、TensorFlow の本家サイト Guide – TensorBoard – Visualizing Learning を翻訳した上で 適宜、補足説明したものです: https://www.tensorflow.org/guide/summaries_and_tensorboard * (obsolete, リンク切れ) 本ページは、TensorFlow の本家サイトの How To – TensorBoard: Visualizin
データのダウンロードと準備 このチュートリアルに必要なデータは Tomas Mikolov の web ページからの PTB データセットの data/ ディレクトリにあります : http://www.fit.vutbr.cz/~imikolov/rnnlm/simple-examples.tgz データセットは既に前処理されていて、文の最後のマーカーと珍しい単語のための特殊なシンボル (<unk>) を含む、全体で 10000 の異なる単語を含みます。 ニューラルネットワークが処理しやすいようにこれら全部を reader.py で一意の整数識別子に変換します。 ptb_word_lm.py#main は、最初に reader.py#ptb_raw_data を呼び出してデータセットを取得します。 def main(unused_args): if not FLAGS.data_path
CIFAR-10 モデル CIFAR-10 ネットワークの大部分は cifar10.py に含まれています。完全な訓練グラフは約 765 演算を含みます。グラフを次のモジュールで構築することでコードを最大限再利用可能にしてあります。 モデル入力 : inputs() と distorted_inputs() は評価と訓練のための CIFAR 画像を、それぞれ、読みそして前処理する演算を追加します。 モデル予測 : inference() は提供された画像について 推論、すなわち分類 を行なう演算を追加します。 モデル訓練 : loss() と train() は損失、勾配、変数更新と視覚化要約を計算する演算を追加します。 モデル入力 モデルの入力パートは CIFAR-10 バイナリ・データファイルから画像を読む、 inputs() と distorted_inputs() 関数で構築されま
TensorFlow & Word2Vec このチュートリアルでは Mikolov et al による word2vec モデルを眺めます。このモデルは “単語埋め込み (word embeddings)” と呼ばれる、単語のベクタ表現を学習するために使われます。 特に TensorFlow で word2vec モデルを構築するにあたり、興味ある本質的な部分を強調することを意図しています。 何故単語をベクタとして表現したいのかという動機を与えることから始めます。 モデルの背後にある直感と、モデルがどのように訓練されるかを見ます。また TensorFlow のモデルの単純な実装も示します。 最後に平凡なバージョンをより良くスケールする方法を見ます。 後でコードを通り抜けますが、直接コードを見ることを好むのであれば、 tensorflow/examples/tutorials/word2ve
次のページ
このページを最初にブックマークしてみませんか?
『ClassCat® AI Research – 生成 AI – FLUX.1, SD3.5, SDXL, OpenAI API, Gemini API』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く