データのセットアップから解析、可視化やモデルのアウトプットまでを一気通貫で学習できます。全体を通じて、データ分析の「流れ」を掴むことを意識した講義設計となっております。
10/28(金)に仕事で東京に来ました。帰るのは10/30(日)なのですが、久々に本屋をじっくり見て回りました。島根県の一つの欠点が本屋が少ないことですが、それを東京に来た時に補っています。 www.blog-tmp.tokyo 最大瞬間風速的にバズった記事になりましたが、その後、この本は読了しています。Google発の機械学習のライブラリであるTensorFlowを題材に、学習のきっかけづくりをしてくれる良い書籍でした。 機械学習をするときはどんなことをするのか、蓄積されたデータから目的のものを探して来てもらうにはどうすればいいのか、そのアプローチの一端に触れることができます。どの分野にもこの手のきっかけづくりとなる書籍があると良いと思います。 次のステップへ ですが、私の野望は世界征服ではなくAIを搭載した汎用人型決戦兵器に自分の代わりに会社へ行ってもらい、給料を稼いで来てもらうという
フリー素材サイト「いらすとや」に出てくる人間風の画像を自動生成するモデルをDeep Learningで作りました。実装にはGoogle製のライブラリ「TensorFlow」と機械学習アルゴリズムの「DCGAN」「Wasserstein GAN」を用いています。 以下は生成された人間画像のうちそれなりにきれいなものの一例です。頬のところが赤くなっていて何となく本家いらすとやの特徴を捉えられていると思います。 「いらすとや」とは? 実装した手法の概要 DCGAN、Wasserstein GANについて Generator Discriminator GeneratorとDiscriminatorの学習 学習や実装の詳細 Generator、Discriminatorのネットワーク構成やパラメーター 訓練データ その他 学習経過 モデルを検証する 入力にバイアスを掛けていい画像を出やすくする ま
あまり深く考えたくない性格なもので、出来ればざっくりと感覚的に理解したいと常々思っています。 そこで、この損失関数についても、直観的に理解できるように、ちょっと調べてみます。 損失関数ってなによ? そもそも損失関数ってなんでしょう? いろいろ調べるとやたら難しい説明が出てきますが、ようは2つの値の差が小さくなるような関数のことのようです。 Deep Learningの識別等では、学習時に、いかに答えに近い値になるように重みパラメータを調整するのかがメインとなるのですが、この「答えに近い値になるように」の部分を担うのが、この「損失関数」というわけです。 「値=損失」ということで、この損失をいかに少なくするのかということで「損失関数」となります。 損失関数の種類 では、損失関数にはどういった種類のものがあるのでしょうか。 ざっと調べてみても、結構な種類があります。 ヒンジ損失関数 ε許容誤差関
Several recent papers have explored self-supervised learning methods for vision transformers (ViT). Key approaches include: 1. Masked prediction tasks that predict masked patches of the input image. 2. Contrastive learning using techniques like MoCo to learn representations by contrasting augmented views of the same image. 3. Self-distillation methods like DINO that distill a teacher ViT into a st
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く